WO2024029820A1 - Remind method and apparatus for increasing compliance with learning digital therapeutics - Google Patents

Remind method and apparatus for increasing compliance with learning digital therapeutics Download PDF

Info

Publication number
WO2024029820A1
WO2024029820A1 PCT/KR2023/010809 KR2023010809W WO2024029820A1 WO 2024029820 A1 WO2024029820 A1 WO 2024029820A1 KR 2023010809 W KR2023010809 W KR 2023010809W WO 2024029820 A1 WO2024029820 A1 WO 2024029820A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
learning
information
reminder
cognitive ability
Prior art date
Application number
PCT/KR2023/010809
Other languages
French (fr)
Korean (ko)
Inventor
한승현
Original Assignee
(주)로완
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)로완 filed Critical (주)로완
Publication of WO2024029820A1 publication Critical patent/WO2024029820A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to a reminder method and device for increasing compliance with learning digital therapeutics. More specifically, it is about a method of setting up the LaMind method to increase the learning compliance of users performing digital therapeutics learning.
  • the dementia population Due to the effects of this rapid aging, the dementia population is rapidly increasing. As of 2010, the global dementia population reached approximately 35.6 million, and by 2050, the dementia population is expected to increase approximately three-fold to 115.4 million. In Korea, the prevalence of dementia by future years, estimated based on age, gender, education, and residential area standardized dementia prevalence based on the 2005 population census, is 9.08% in 2012, 9.74% in 2020, 9.61% in 2030, and 2040. It is predicted that the dementia population will increase to 11.21% and 13.17% in 2050, exceeding 1 million in 2027, and reaching 2.12 million in 2050.
  • the social cost of dementia is estimated to exceed the combined cost of all three diseases - cancer, heart disease, and stroke.
  • the total annual medical cost due to dementia was KRW 810 billion as of 2010, ranking second among geriatric diseases, 1 Dementia treatment costs per person are 3.1 million won per year, the highest among the five major chronic diseases. Additionally, Korea's total national dementia cost is estimated to double every 10 years to 8.7 trillion won per year.
  • Registered Patent Publication No. 10-1295187 is a brain function improvement system and its operation that performs the function of preventing dementia by giving the user a level of achievement according to the score obtained according to the user's feedback regarding the selected content. Disclose the method.
  • This specification relates to a reminder method and device for increasing compliance with learning digital therapeutics.
  • This specification relates to a method and device for confirming digital therapeutic learning compliance through the user learning progress status.
  • This specification relates to a method and device for setting different reminder methods to provide users based on learning compliance with digital therapeutics.
  • This specification relates to a method and device for determining a user's cognitive state based on user viewpoint tracking and providing content in consideration of the determined user's cognitive state.
  • the steps include performing user learning based on content, detecting user learning interruption input, and confirming the point of user learning interruption. And it may include the step of setting a user learning reminder.
  • the cognitive ability development server includes a content provision module, an input module, an analysis module, and a machine learning module. Based on the content provision module, user learning including the content can be performed, user learning interruption input can be detected based on the input module, user learning interruption point can be confirmed, and user learning reminder setting can be performed. .
  • user learning includes at least one major task and at least one detailed task within the major task, and user learning can be completed only when all of at least one major task is completed.
  • the step of detecting the user learning interruption point determines whether the user learning interruption point is when at least one or more detailed tasks within the main task are completed or while performing at least one or more detailed tasks. It is possible to detect whether it is the time point and provide different reminder information based on the user learning reminder setting depending on the point in time when the user stops learning.
  • reminder information inquiring about whether to continue or end learning is provided to the user, and the user If the learning interruption point is during a detailed task, reminder information related to learning restart can be provided in addition to the reminder information asking the user whether to continue or end learning.
  • reminder information may be provided based on the first interface, and when learning is interrupted based on reasons affecting learning progress, reminder information may be provided based on the second interface.
  • the reminder information provided based on the first interface is reminder information related to the user's learning restart
  • the reminder information provided based on the second interface is reminder information related to the user's learning restart and This may be reminder information related to learning difficulty adjustment.
  • user status information may be obtained through information tracking at least one of the user's face, the user's hands, and the user's body.
  • a notification about the user learning progress may be provided or the user learning progress may be re-executed after a preset time based on the reminder setting information.
  • reminder setting-related information is provided to the user, and the user's input is detected and reminder setting-related information is provided. After data conversion, user learning can be restarted.
  • This specification can provide a reminder method to increase compliance with learning digital therapeutics.
  • the present specification may provide a method for confirming digital therapeutic learning compliance through the user learning progress status.
  • the present specification may provide a method of setting different reminders provided to users based on digital therapeutic learning compliance.
  • This specification can determine the user's cognitive state based on user viewpoint tracking and provide content by considering the determined user's cognitive state.
  • FIG. 1 is a schematic block diagram of a cognitive ability development system according to an embodiment.
  • Figure 2 is a flowchart showing each step of a cognitive ability development method according to an embodiment.
  • Figure 3 is a conceptual diagram illustrating a data processing process by a cognitive ability development method according to an embodiment.
  • Figure 4 is a diagram showing a method for tracking a user's viewpoint according to an embodiment.
  • FIG. 5A is a diagram illustrating a method of extracting user information and upgrading a digital therapeutic product based on user viewpoint tracking according to an embodiment.
  • Figure 5b is a diagram illustrating a method of extracting user information and upgrading a digital therapeutic product based on user viewpoint tracking according to an embodiment.
  • FIG. 5C is a diagram illustrating a method of extracting user information and upgrading a digital therapeutic product based on user viewpoint tracking according to an embodiment.
  • FIG. 5D is a diagram illustrating a method of extracting user information and upgrading a digital therapeutic product based on user viewpoint tracking according to an embodiment.
  • FIG. 6A is a diagram illustrating a method for tracking a user's hand and enhancing a digital therapeutic agent according to an embodiment.
  • FIG. 6B is a diagram illustrating a method for tracking a user's hand and enhancing a digital therapeutic agent according to an embodiment.
  • FIG. 6C is a diagram illustrating a method for tracking a user's hand and improving digital therapeutics according to an embodiment.
  • FIG. 7A is a diagram illustrating a method for tracking the user's viewpoint and hand and upgrading a digital therapeutic agent according to an embodiment.
  • Figure 7b is a diagram illustrating a method for tracking the user's viewpoint and hand and upgrading a digital therapeutic agent according to an embodiment.
  • FIG. 8A is a diagram illustrating a method of adjusting a virtual image based on tracking according to an embodiment.
  • FIG. 8B is a diagram illustrating a method of adjusting a virtual image based on tracking according to an embodiment.
  • FIG. 9A is a diagram illustrating a method of determining user status based on tracking according to an embodiment.
  • FIG. 9B is a diagram illustrating a method of determining user status based on tracking according to an embodiment.
  • Figure 10 is a diagram showing a digital therapeutics learning task according to one embodiment.
  • Figure 11 is a diagram showing the progress of a digital therapeutics learning task according to an embodiment.
  • FIG. 12A is a diagram illustrating a method of determining learning compliance based on a user's learning completion point according to an embodiment.
  • Figure 12b is a diagram illustrating a method of providing a reminder based on a user's learning compliance, according to an embodiment.
  • FIG. 13A is a diagram illustrating a method of determining learning compliance based on a user's learning completion point according to an embodiment.
  • Figure 13b is a diagram illustrating a method of providing a reminder based on a user's learning compliance according to an embodiment.
  • FIG. 13C is a diagram illustrating a method of providing a reminder based on a user's learning compliance according to an embodiment.
  • FIG. 13D is a diagram illustrating a method of providing a reminder based on a user's learning compliance according to an embodiment.
  • Figure 14 is a diagram illustrating a method of providing a reminder by comparing a user's learning compliance with other users according to an embodiment.
  • FIG. 15A is a diagram illustrating a method of performing learning reset based on a reminder according to an embodiment.
  • FIG. 15B is a diagram illustrating a method of performing learning reset based on a reminder according to an embodiment.
  • FIG. 16 is a diagram illustrating a method of performing learning reset based on a reminder according to an embodiment.
  • Figure 17 is a flowchart showing a reminder method to increase compliance with learning digital therapeutics according to an embodiment.
  • a component when a component is said to be “connected,” “coupled,” or “connected” to another component, this refers not only to a direct connection relationship, but also to an indirect relationship where another component exists in between. Connection relationships may also be included.
  • a component when a component is said to "include” or “have” another component, this does not mean excluding the other component, but may further include another component, unless specifically stated to the contrary. .
  • first, second, etc. are used only for the purpose of distinguishing one component from other components, and do not limit the order or importance of components unless specifically mentioned. No. Therefore, within the scope of the embodiments of the present specification, the first component in an embodiment may be referred to as a second component in another embodiment, and similarly, the second component in the embodiment may be referred to as the first component in another embodiment. It may also be called.
  • distinct components are intended to clearly explain each feature, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to form one hardware or software unit, or one component may be distributed to form a plurality of hardware or software units. Therefore, even if not specifically mentioned, such integrated or distributed embodiments are also included in the scope of the embodiments of the present specification.
  • a network may be a concept that includes both wired and wireless networks.
  • the network may refer to a communication network in which data exchange between devices, systems, and devices can be performed, and is not limited to a specific network.
  • Embodiments described herein may have aspects that are entirely hardware, partly hardware and partly software, or entirely software.
  • “unit,” “device,” or “system” refers to computer-related entities such as hardware, a combination of hardware and software, or software.
  • a part, module, device, or system refers to a running process, processor, object, executable, thread of execution, program, and/or computer. It may be a (computer), but is not limited thereto.
  • both an application running on a computer and the computer may correspond to a part, module, device, or system in the present specification.
  • the device may be a mobile device such as a smartphone, tablet PC, wearable device, and HMD (Head Mounted Display), as well as a fixed device such as a PC or a home appliance with a display function.
  • the device may be a cluster within a vehicle or an Internet of Things (IoT) device. That is, in this specification, a device may refer to devices capable of operating an application, and is not limited to a specific type. In the following, for convenience of explanation, the device on which the application runs is referred to as a device.
  • IoT Internet of Things
  • the network communication method is not limited, and connections between each component may not be connected through the same network method.
  • the network may include not only a communication method utilizing a communication network (for example, a mobile communication network, wired Internet, wireless Internet, broadcasting network, satellite network, etc.), but also short-range wireless communication between devices.
  • a network can include objects and any communication method through which objects can be networked, and is not limited to wired communication, wireless communication, 3G, 4G, 5G, or other methods.
  • wired and/or networks include Local Area Network (LAN), Metropolitan Area Network (MAN), Global System for Mobile Network (GSM), Enhanced Data GSM Environment (EDGE), High Speed Downlink Packet Access (HSDPA), W-CDMA (Wideband Code Division Multiple Access), CDMA (Code Division Multiple Access), TDMA (Time Division Multiple Access), Bluetooth, Zigbee, Wi-Fi, VoIP (Voice over Internet Protocol), LTE Advanced, IEEE802.16m, WirelessMAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX (IEEE 802.16e), UMB (formerly EV-DO Rev.
  • LAN Local Area Network
  • MAN Metropolitan Area Network
  • GSM Global System for Mobile Network
  • EDGE Enhanced Data GSM Environment
  • HSDPA High Speed Downlink Packet Access
  • W-CDMA Wideband Code Division Multiple Access
  • CDMA Code Division Multiple Access
  • TDMA Time Division Multiple Access
  • Bluetooth Bluetooth
  • Zigbee WirelessMAN-Advanced
  • HSPA+ 3GP
  • Flash-OFDM Flash-OFDM
  • iBurst may refer to a communication network using one or more communication methods selected from the group consisting of MBWA (IEEE 802.20) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX (World Interoperability for Microwave Access), and ultrasonic communication. However, it is not limited to this.
  • MBWA IEEE 802.20
  • HIPERMAN Beam-Division Multiple Access
  • BDMA Beam-Division Multiple Access
  • Wi-MAX Worldwide Interoperability for Microwave Access
  • ultrasonic communication it is not limited to this.
  • Components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, embodiments consisting of a subset of the elements described in the embodiments are also included in the scope of the embodiments of the present specification. In addition, embodiments that include other components in addition to the components described in the various embodiments are also included in the scope of the embodiments of the present specification.
  • FIG. 1 is a schematic block diagram of a cognitive ability development system according to an embodiment.
  • the cognitive ability development system 2 includes a content provision module 21, an input module 22, an analysis module 23, and a machine learning module 24. do. Additionally, each module 21-24 may include one or more functional units.
  • each module 21-24 or unit of the cognitive ability development system 2 may be entirely hardware, or may have aspects that are partly hardware and partly software.
  • each module 21-24 or unit of the cognitive ability development system 2 may collectively refer to hardware and software related thereto for processing data of a specific format and content and/or exchanging data through electronic communication.
  • terms such as “unit,” “module,” “device,” “terminal,” “server,” or “system” are intended to refer to a combination of hardware and software driven by the hardware.
  • hardware may be a data processing device that includes a CPU or other processor.
  • software driven by hardware may refer to a running process, object, executable, thread of execution, program, etc.
  • each element constituting the cognitive ability development system 2 is not necessarily intended to refer to a separate device that is physically distinct from each other.
  • the content provision module 21, input module 22, analysis module 23, and machine learning module 24 in FIG. 1 are the hardware constituting the cognitive ability development system 2 and the operations performed by the hardware. It is only functionally divided according to the function, and each part does not necessarily have to be provided independently from each other.
  • the content provision module 21 is configured to provide users with content for cognitive ability development.
  • the content providing module 21 is a part for transmitting content to the user device 1 so that the content can be presented to the user using a display means and a sound output means provided in the user device 1.
  • the cognitive development system 2 may communicate with the user device 1 via a wired and/or wireless network.
  • communication methods through wired and/or wireless networks may include objects and all communication methods through which objects can be networked, and are not limited to wired communication, wireless communication, 3G, 4G, or other methods. .
  • the user device 1 is shown in the form of a tablet computer, but this is an example.
  • the user device 1 may be a mobile computing device such as a smartphone, a laptop computer, or a personal computer. It may be composed of any computing device such as a PC).
  • the cognitive development system 2 performs, at least in part, the function of an application server that allows the application to perform its functions by communicating with an application (or app) running on the user device 1. can do.
  • the cognitive ability development system 2 is, at least in part, a web server that provides a web page accessible through a web browser running on the user device 1. It can also perform a function.
  • the cognitive ability development system 2 itself may be configured in the form of a device used by the user, in which case the user can directly use the content through the cognitive ability development system 2. Therefore, the user device 1 shown in FIG. 1 may be omitted.
  • cognitive ability development content presented through the content provision module 21 may be related to a plurality of cognitive areas.
  • a plurality of cognitive domains refers to a multifaceted field for encouraging users to engage in activities to improve cognitive abilities from different perspectives in order to improve cognitive abilities, such as preventing or slowing down the decline in cognitive abilities due to dementia, etc. means.
  • the cognitive ability development system 2 may divide content that needs to be managed to improve cognitive ability into five cognitive areas: vascular disease management, cognitive training, exercise, nutritional management, and motivation enhancement. .
  • the cognitive ability development content provided by the cognitive ability development system (2) aims to improve the ability of one or multiple cognitive domains among the five cognitive domains described above, and is developed with the goal of strengthening a specific cognitive domain. This can be done, and in this specification, this is referred to as the characteristics of cognitive ability development content.
  • cognitive ability development content may take the form of a game aimed at strengthening abilities in a specific field.
  • the input module 22 is configured to receive the user's learning data about content provided to the user through the content providing module 21 from the user device 1 .
  • the input module 22 can receive learning data through an input means (not shown) such as a keyboard or touch screen. .
  • the analysis module 23 is configured to analyze the learning data input to the input module 22 and calculate performance information for a plurality of cognitive areas. For example, the analysis module 23 may determine performance information based on cognitive scores for content (e.g., games) in each cognitive domain, time spent on content in each domain, progress rate and/or participation rate for each domain, etc. .
  • content e.g., games
  • the analysis module 23 includes a result analysis unit 231 that analyzes the cognitive score, which is the user's learning result for each area, and/or the time and content spent on achieving the goal of the content in each area. It may include a process analysis unit 232 that analyzes information on consumption time, such as the user's response time.
  • the analysis module 23 further includes a profiling unit 233.
  • the user can input his/her personal information, such as gender, age, living environment (number of household members, etc.), and medical history, such as whether or not he or she has been diagnosed with dementia in the past, through the input module 22.
  • the profiling unit 233 is configured to determine a reference value for deriving performance information from learning data based on such personal information.
  • the standard value is information about the section for converting the recognition score or consumption time into a performance value, weight information to be applied to the recognition score or consumption time, or the user's gender/age/living environment/medical history, etc. affect the performance value. It can refer to any other arbitrary way of adjusting the value to affect .
  • the machine learning module 24 stores the results of learning by machine learning using a pre-entered training data set, and reports performance information obtained by the analysis module 23. It functions to determine the characteristics of user-customized content by applying the learning results of machine learning.
  • the machine learning module 240 includes a machine learning model learning unit 241 that performs machine learning using a training data set, and a machine learning unit that determines customized content for the user's performance information based on the learning results. It may include a model determination unit 242.
  • the input module 22 may further perform the function of receiving a training data set and inputting it to the machine learning model learning unit 241 for machine learning.
  • the input module 22 may include a data labeling unit 222.
  • the data labeling unit 222 trains the data included in the training data set using customized content information (i.e., correct answer) determined by experts or clinical results as suitable for improving the cognitive ability of the user who provided the data.
  • Data in the data set may be labeled, and the labeled data may be provided to the machine learning model learning unit 241.
  • the input module 22 may further include a personal information processing unit 223.
  • the personal information processing unit 223 may perform masking on personal information so that sensitive personal information of each user is not exposed when the machine learning model learning unit 241 performs learning using the training data set.
  • masking may mean deleting the sensitive information itself from the training data set, or dividing, combining, or dividing the data so that it is impossible to match the data records with the individual who provided them even if the information is not deleted. It can refer to reconstruction.
  • the machine learning model determination unit 242 of the machine learning module 24 determines the type of user corresponding to the user's performance information based on the data previously accumulated by the machine learning model learning unit 241, and determines the type of user corresponding to the user's performance information. You can determine the characteristics of customized content that is suitable for you. For example, determining the type of user may mean classifying or clustering users based on patterns of performance shown by the user in multiple cognitive domains, and the machine learning model determination unit 242 ) can use these types to determine customized content suitable for improving the cognitive abilities of the corresponding user category or group.
  • FIGS. 1 and 2 are flowchart showing each step of a cognitive ability development method according to an embodiment. For convenience of explanation, the cognitive ability development method according to this embodiment will be described with reference to FIGS. 1 and 2.
  • the input module 22 of the cognitive ability development system 2 can receive a training data set (S11).
  • the training data set may be input or transmitted to the input module 22 from the administrator's user device, or may be received from an external server (not shown).
  • the data labeling unit 222 of the input module 22 uses customized content information determined based on expert or clinical information based on each data in the training data set. Thus, the data can be labeled (S12). Additionally, the personal information processing unit 223 of the input module 22 may remove sensitive information from data in the training data set or perform masking to prevent sensitive information from being associated with the individual data provider (S12).
  • the machine learning module 24 of the cognitive ability development system 2 can receive data for which labeling and masking have been completed and use this to generate learning results for determining customized content from the learning data (S13).
  • the learning result refers to determining the type of user based on the pattern of the learning data and determining the characteristics of the content suitable to be applied to that type of user, such as the type and number of cognitive areas corresponding to the content. It may be for.
  • the machine learning learning process (S11-S13) described above may be performed by the machine learning model learning unit 241 of the machine learning module 24.
  • the machine learning module 24 may receive algorithms and parameters corresponding to machine learning results from an external device or server and operate based on them. In this case, the above-described learning process (S11- S13) may be omitted.
  • the content provision module 21 of the cognitive ability development system 2 provides cognitive ability development content with characteristics of a plurality of cognitive areas to the user. Can be provided (S21).
  • the input module 22 of the cognitive ability development system 2 may receive the user's learning data about the provided content (S22).
  • learning data refers to the cognitive score achieved by a user solving a task provided through content in a game-like format, the time the user spends on completing the task, or a series of tasks within the content. It may include the user's progress rate or participation rate.
  • the input module 22 may further receive personal information of a user participating in the content simultaneously with receiving the learning data or before or after receiving the learning data (S23).
  • personal information may include, but is not limited to, information such as the user's gender/age/living environment/medical history.
  • the analysis module 23 of the cognitive ability development system 2 may derive performance information suitable for determining the type of user indicated by the learning data from the user's learning data (S24).
  • performance information refers to the recognition score, time spent, progress rate, participation rate, etc. achieved by the user for the content, or converts this information into a performance value based on certain criteria (grade, threshold, weight, etc.) It may have been converted to .
  • the machine learning module 24 of the cognitive ability development system 2 can determine user-customized content based on the performance information derived by the analysis module 23 (S25). This may mean determining the characteristics (type, difficulty, time limit, etc.) of cognitive ability development content suitable to be presented next to that user based on the type of user determined through the machine learning model, which is described in detail. This will be described later.
  • Figure 3 is a conceptual diagram illustrating a data processing process by a cognitive ability development method according to an embodiment.
  • information such as usage history, progress rate, recognition score, and/or participation rate is derived from the user's learning data, and this is used as performance information to provide the user with information such as use history, progress rate, recognition score, and/or participation rate. You can decide on customized content to be provided.
  • a digital therapeutic may be a software medical device. More specifically, the user's cognitive state information is analyzed based on the above-described cognitive ability development system (2), and content is provided to the user based on the analyzed user's cognitive state information to improve the user's cognitive ability to prevent disease (e.g. dementia). ) may be a software medical device aimed at the prevention, management, and treatment of As an example, a digital therapeutic may be a software medical device that collects, manages, and stores user data to enable customized analysis and treatment for patients.
  • a digital therapeutic may mean improving a user's cognitive ability by analyzing the user and providing content based on the cognitive ability development system 2 as described above, and is not limited to a specific embodiment.
  • a digital treatment performed based on the cognitive ability development system 2 is described, but may not be limited thereto.
  • the cognitive ability development system 2 may determine the user's cognitive state by analyzing user information using user viewpoint tracking.
  • a camera may be used to track the user's viewpoint.
  • a camera may be mounted on the user device 1 and track the viewpoint (or gaze), face, hands, and other body of the user who receives content.
  • the camera is a webcam that can be mounted on a Windows OS-based tablet or desktop and can extract the user's viewpoint (or gaze), face, palm, and other coordinates of the body.
  • the cognitive ability development system (2) can determine the user's cognitive state by continuously tracking the coordinate values extracted through the camera, and through this, the cognitive ability development system (2) as a digital therapeutic agent can accurately recognize the user's state. You can.
  • FIG. 4 is a diagram showing a method for tracking a user's viewpoint according to an embodiment.
  • the camera 3 can be installed in the tablet 1 and other devices described above.
  • the camera 3 may be attached to the top of a device that provides content to a user or may be combined with the device, and is not limited to a specific embodiment.
  • the camera 3 can derive coordinate values by extracting at least one of the user's hand 41, face 42, and viewpoint (or gaze 43).
  • the cognitive ability development system 2 can determine the user's cognitive state by tracking changes in coordinate values extracted through the camera 3.
  • the center point of the user's hand 41 may be set as a reference point for the coordinate value, and tracking may be performed based on this.
  • coordinate values of each point of the user's hand 41 may be derived, and tracking of the user's hand 41 may be performed through the average of the derived coordinate values.
  • the center point of the face 42 may be set as a reference point for the coordinate value, and tracking may be performed based on this.
  • coordinate values of each point of the face 42 may be derived, and tracking of the face 42 may be performed by averaging the derived coordinate values.
  • the center point of the user's eyes may be set as a reference point for the coordinate value, and tracking may be performed based on this.
  • coordinate values of each point of the user's eyes can be derived, and tracking of the user's eyes can be performed by averaging the derived coordinate values.
  • the cognitive ability development system can track the user's hands (41), face (42), viewpoint (43), and other bodies, and through this, determine the user's state and provide content tailored to the user. User cognitive ability can be improved efficiently.
  • FIGS. 5A to 5D are diagrams illustrating a method of extracting user information and upgrading a digital therapeutic product based on user viewpoint tracking according to an embodiment.
  • the cognitive ability development system 2 may provide content to the user based on user cognitive state information.
  • content may be provided to the user through the content provision module 21 of the cognitive ability development system 2.
  • the user can perform learning based on the content provided by the cognitive ability development system 2, and through this, the cognitive ability development system 2 can check the user's cognitive state.
  • the input module 22 of the cognitive ability development system 2 may be configured to receive user learning data about content provided to the user through the content provision module 21 from the user device 1.
  • the input module 22 can receive learning data through an input means (not shown) such as a keyboard or touch screen. there is.
  • the analysis module 23 may acquire user cognitive state information by analyzing the learning data input to the input module 22.
  • user cognitive state information may be configured to calculate performance information for a plurality of cognitive areas.
  • the analysis module 23 may determine performance information based on at least one of the cognitive score for the content (e.g. game) of each cognitive domain, the time consumed for the content of each domain, and the progress rate and participation rate for each domain, through which User cognitive state information can be derived.
  • the cognitive ability development system 2 may provide question information 501 and answer information 502 to the user as content.
  • the user can derive answer information as learning data based on the question information 501 and input it into the answer information 502.
  • the cognitive ability development system 2 may provide related content 51, 52, 53, 54, 55, 56, and 57 in consideration of learning.
  • learning data can be generated by the user entering related content (51, 52, 53, 54, 55, 56, 57) into the answer information (502), and the cognitive ability development system (2) generates the generated learning data. can be obtained.
  • FIG. 5A the cognitive ability development system 2 may provide question information 501 and answer information 502 to the user as content.
  • the user can derive answer information as learning data based on the question information 501 and input it into the answer information 502.
  • the cognitive ability development system 2 may provide related content 51, 52, 53, 54, 55, 56, and 57 in consideration of learning.
  • learning data can be generated by the user entering related content (51, 52, 53, 54, 55, 56,
  • consonants/vowels may be provided to the user as fruit-shaped content to input an answer to a question.
  • the user can complete the answer information 502 by selecting a fruit containing a consonant or vowel corresponding to the answer information, and through this, learning data can be generated.
  • the learning data may include information about whether the user inputs the answer information 502 corresponding to a preset value. In other words, information about whether the user answered correctly can be obtained.
  • the learning data may further include time information at which the user inputs an answer into the answer information 502. For example, if the input time of the user's answer information 502 is short, the user's cognitive state may be judged to be of a high level, and if the input time of the user's answer information 502 is long, the user's cognitive state may be judged to be of a low level.
  • the cognitive ability development system 2 may generate learning data by further tracking user viewpoint information. More specifically, referring to FIG. 5b, the cognitive ability development system 2 derives the coordinate value for the user viewpoint 43 through the camera 3 and tracks the viewpoint 43, as described above. You can.
  • the user's viewpoint 43 checks the question information 501 and then moves toward checking the answer information 502, and then moves to content 51, 52, 53, 54, 55 for inputting the answer information 502. , 56, 57).
  • the cognitive ability development system 2 can check how the user perceives the provided content.
  • the cognitive ability development system 2 can confirm that the user's cognitive state is at a low level. In other words, the cognitive ability development system 2 can check the user's cognitive state through tracking the user's viewpoint 43, and through this, the user's cognitive state can be recognized more accurately.
  • the cognitive ability development system 2 may further display timeline information 503 as information for determining the user's cognitive state, and based on this, the user may provide answer information 502. You can recognize the time needed to derive it.
  • the cognitive ability development system 2 can control the provided content based on the above-described user cognitive state information.
  • the cognitive ability development system 2 tracks the user's viewpoint 43 through the front camera 3, and selects each word fragment (consonant/vowel) based on the viewpoint 43. ), you can adjust the surrounding shape (banana, cucumber, lettuce, etc.), color, and size, or provide a hint.
  • the contents 51, 52, 53, and 55 input into the answer information 502 may be increased in size in consideration of the low user cognitive state, and the color may be changed to a color that is easily visible. there is.
  • the cognitive ability development system 2 can check the user's cognitive state through tracking the user's viewpoint 43 and provide content suitable for the confirmed user's cognitive state.
  • the cognitive ability development system 2 may track the user's viewpoint 43 and count how many times the user reads the question information 501. For example, if the user checks the question information 501 more than a preset number of times, the user's cognitive status rating may be low. In this case, to reduce the difficulty of the question, increase the size of the content or make the color more noticeable as described above. It can be changed, and through this, efficient content can be provided. As another example, when tracking the user's viewpoint 43 and passing the correct word fragment more than a preset number of times, the cognitive ability development system 2 counts the preset number of times to determine when to provide a hint or zoom in on the correct word fragment. It may be, and may not be limited to a specific form.
  • the cognitive ability development system 2 can derive the user's viewpoint 43 as well as the user's facial expression information through the camera 3. For example, when the user squints his eyes or moves his face closer to the screen, the cognitive ability development system 2 may increase the size of the content provided to the user. In other words, it may be the case that the user does not properly recognize the content, so the cognitive ability development system (2) can enable the user to receive the content efficiently by increasing the size of the content, and perform advancement by efficiently measuring the cognitive ability. can do.
  • FIG. 6A is a diagram illustrating a method of tracking a user's hand and enhancing a digital therapeutic agent according to an embodiment.
  • the above-mentioned camera 3 can track not only the user's viewpoint 43 but also the user's hand 41.
  • the cognitive ability development system 2 can update the answer information 502 when it detects that the coordinates of the tracked user's hand 41 and the coordinates on the screen of the provided content match.
  • the cognitive ability development system 2 can track the user's hand 41 and detect an input that selects the specific content 55 at the location of the specific content 55.
  • the cognitive ability development system 2 when the cognitive ability development system 2 detects that the coordinates of each of the user's hands 41 are gathered within a preset distance, it can detect an input for selecting specific content 55 at that location. That is, the grasping motion of the user's hand 41 can be detected, and specific content 55 can be selected based on this. Afterwards, the cognitive ability development system 2 may detect that the specific content 55 selected based on the camera 3 moves from the first location to the second location. At this time, the content 61 provided at the second location may be a location that provides input for providing specific content 550 as answer information 502. That is, when the user's hand 41 selects specific content 550 and moves it to the blender 61, the cognitive ability development system 2 can recognize this and provide it as answer information 502.
  • the cognitive ability development system 2 can recognize the user's hand 41 and track the recognized hand. At this time, the cognitive ability development system 2 may check the user's cognitive state based on the movement of the user's hand 41. For example, when the cognitive ability development system 2 detects that the user's hand 41 is quickly selected and moves from the first position to the second position within a preset time, it can determine that the user's cognitive state is at a high level. On the other hand, when the cognitive ability development system 2 detects that the movement speed of the user's hand 41 is slow and the user cannot perform the operation to select specific content 55, it can determine that the user's cognitive state is at a low level. In other words, the cognitive ability development system 2 can determine the user's cognitive state by tracking the user's hand 41.
  • the cognitive ability development system 2 may determine the user's cognitive state based on time information for deriving final answer information based on tracking the user's hand 41.
  • the answer information 502 based on the question information 501 is "mother" and the user's hand 41 selects " ⁇ ", " ⁇ ", " ⁇ ", and " ⁇ ” to select the above-mentioned items. Movement to position 2 (i.e. blender, 61) can be detected, and time information required to derive the corresponding answer can be derived.
  • the cognitive ability development system 2 may determine that the user's cognitive status level is low if it takes a long time to derive the final answer information 502, and if the time to derive the final answer information 502 is short, the cognitive ability development system 2 may determine that the user's cognitive status level is low. It can be determined that the user's cognitive status level is high.
  • the cognitive ability development system 2 can detect both the user's viewpoint 43 and the user's hand 41. More specifically, referring to FIGS. 7A and 7B , the user can check question information 501 in the provided content and generate answer information 502 by selecting and moving specific content. At this time, the user's viewpoint 43 can move to each content based on the question information 501 and the answer information 502, and the user's hand 41 can move to each content for the answer information 502. there is. In other words, the user can recognize the content provided from the cognitive ability development system 2 with his eyes, select it with his hand, and perform a specific action.
  • the cognitive ability development system 2 can detect both the user's viewpoint 43 and the user's hand 41, and can determine the user's cognitive state through this.
  • the cognitive ability development system 2 can recognize both the user's viewpoint 43 and the user's hand 41 through one camera 3.
  • the cognitive ability development system 2 may include a plurality of cameras 3 and track the user's viewpoint 43 and the user's hand 41 based on the plurality of cameras 3.
  • individual weights may be assigned to information tracked based on the user's viewpoint 43 and information tracked based on the user's hand 41, and the user's cognitive state grade is determined by reflecting the values considering the weights. It can be determined, and through this, the cognitive ability development system 2 can check the user's cognitive state.
  • the cognitive ability development system 2 provides a virtual object 71 and at least one of the user's face 42 and the user's body 44 based on the virtual object 71. By tracking either one, you can determine the user's cognitive state. At this time, as an example, the cognitive ability development system 2 can enable the user to easily recognize the virtual object 71 through control of the virtual object 71. As an example, the cognitive ability development system 2 may adjust the color surrounding the word fragment based on the background color. As a specific example, when there is a purple curtain, the cognitive ability development system 2 may display the virtual object 71 in a different color so that the user can easily recognize it. In addition, as an example, referring to FIG.
  • the cognitive ability development system 2 recognizes real objects in the background (e.g. windows, chairs, picture frames, etc.)
  • the position of an object can be adjusted dynamically.
  • the virtual object 71 may not be identifiable to the user due to the real object, and taking this into consideration, the virtual object 71 may be moved to an area where the user can identify it.
  • the cognitive ability development system 2 can select the location of the virtual object by considering the brightness and complexity of the real object and the color and transparency of the virtual object 71.
  • the cognitive ability development system 2 can detect the space where the virtual object 71 is displayed through the camera and derive brightness and complexity information by recognizing the real object in the space.
  • the cognitive ability development system 2 can determine a position that the user can easily recognize by deriving the color and transparency information of the virtual object 71 and comparing it with the above-described real object information.
  • brightness may be the degree to which light enters due to ambient illumination or a window.
  • complexity may be a background recognized based on wallpaper or a picture frame with a complicated picture.
  • the color and transmittance of the virtual object 71 may be considered complementary or similar to the background, or if the transmittance is high, the transmittance may be lowered or moved.
  • the cognitive ability development system 2 can also adjust the user's location. As an example, the cognitive ability development system 2 may determine the user's cognitive state by tracking the user's face 41 or the user's body 44 that imitates the virtual object 71.
  • the cognitive ability development system 2 may display information to adjust the user's location, and based on this, Thus, the user's movements can be recognized after the user's position has been adjusted.
  • FIGS. 9A and 9B are diagrams showing a method of determining a user's cognitive state based on tracking the user's viewpoint 43.
  • a plurality of contents 91, 92, 93, 94, 95, 96, 97, 98, and 99 are arranged, and the user's viewpoint 43 moving accordingly can be tracked.
  • the cognitive ability development system 2 informs the user that an operation to check all the plurality of contents (91, 92, 93, 94, 95, 96, 97, 98, 99) is required, and the user selects the plurality of contents.
  • the cognitive ability development system 2 can track the user viewpoint 43 and obtain information on the time when the user viewpoint 43 moves from the first content 91 to the last content 99 and back again. At this time, the cognitive ability development system 2 may determine that the level of the user's cognitive state is high if the time information is short, and may determine that the level of the user's cognitive state is low if the time information is long.
  • the user cognitive status level may be set to a plurality of levels based on preset conditions.
  • a weight may be assigned to each condition that classifies each grade, and the user's cognitive state grade may be determined based on the weight information.
  • a first weight is given to the time information at which the answer information 502 is derived based on the user viewpoint 43, and the user confirms the question information 501 based on the user viewpoint 43.
  • a second weight may be assigned to the number of times.
  • the cognitive ability development system 2 can derive the final value by considering each weight and check the user's cognitive status grade corresponding to the area from which the final value was derived.
  • a third weight is given to the time information at which specific content is selected based on the user's hand 41 and the final answer is derived, and the user's hand 41
  • a fourth weight may be assigned to the user's action of selecting specific content based on tracking.
  • the cognitive ability development system 2 reflects all of the first weight, second weight, third weight, and fourth weight to derive the final value, and confirms the user cognitive status grade corresponding to the area from which the final value was derived. You can. In other words, the user cognitive status rating can be performed through comparison with the final value derived by the cognitive ability development system 2.
  • the cognitive ability development system 2 may generate learning data based on the user cognitive state grade information described above, and adjust content to match the user cognitive state grade based on the generated learning data.
  • the generated learning data can be fed back and transmitted to the cognitive ability development system (2), and the cognitive ability development system (2) can efficiently provide content appropriate for the user's cognitive status level by reflecting the above-mentioned information. .
  • FIG. 10 is a diagram showing a digital therapeutics learning task according to one embodiment.
  • the above-described contents can be provided to the user device 1 through the cognitive ability development system 2, and at least one of the user's hand 41, face 42, and viewpoint (or gaze 43) is tracked. By doing this, digital treatments can be provided by checking the level of learning about the content.
  • the above-mentioned cognitive ability development system (2) divides the content that needs to be managed to improve cognitive ability into five cognitive areas: vascular disease management, cognitive training, exercise, nutritional management, and motivation enhancement. You can. Thereafter, the cognitive ability development system 2 can create each task through content related to each task that needs to be managed by the user device 1.
  • each task is content created in consideration of contents that need to be managed, and the user can learn about each task.
  • recognition scores for each task, time spent progress, participation rate, and other information to determine and provide customized content to the user.
  • user-customized content may be provided on a one-time basis.
  • user-customized content may be in the form of providing a plurality of tasks based on a certain cycle.
  • digital therapeutics require users to continuously learn to improve cognitive abilities such as dementia, and taking the above into consideration, user-customized content may be provided at a certain cycle.
  • the cognitive ability development system 2 includes cognitive tasks such as “making kimchi (101),” “remembering the card from before (102),” “growing tomatoes (103),” and “how much is it?” 104)" Assignments can be provided to users.
  • the cognitive ability development system 2 can provide a task 105 related to the number of exercises as an exercise task, and can provide a “mind meal method 106” and a “diet management task 107” as a nutrition task.
  • the cognitive ability development system 2 can provide a plurality of tasks to the user through the user device 1, taking the digital therapeutic effect into account.
  • the user performs the above-described tasks through the user device 1. Only then can the effectiveness of digital treatment be expected. However, users with low compliance may deviate from learning.
  • the user needs to complete all the assigned tasks every day, but considering the case where the user stops arbitrarily
  • learning interruptions may be frequent, and a reminder method may be needed for this. there is.
  • the cognitive ability development system 2 can track the user through the user device 1 as described above, detect user input, and recognize the user's degree of task performance. At this time, the cognitive ability development system 2 can check whether the user has completed the final progress of the given task or finished it midway. In other words, the cognitive ability development system 2 can provide tasks according to a preset cycle by considering the digital treatment effect. As an example, the cognitive ability development system 2 may provide the user with the above-described cognitive tasks, exercise tasks, and nutritional tasks every day, but this is only an example and is not limited to the above-described embodiment. However, for convenience of explanation, the following description is based on the case where the cognitive ability development system 2 provides cognitive tasks, exercise tasks, and nutritional tasks to users every day. However, it may not be limited to this.
  • Figure 11 is a diagram showing the progress of a digital therapeutics learning task according to an embodiment.
  • the cognitive ability development system 2 may provide progress stage information (111, 112, 113, 114, 115, 116, 117) for each task to the user device 1.
  • the cognitive ability development system 2 may preset the learning order for each task. In other words, the user may have to perform each task in a preset order.
  • the cognitive ability development system 2 may not restrict the learning order for each task. In other words, the user only needs to perform each task, and the order may be irrelevant.
  • the progress stage information for each task described above (111, 112, 113, 114, 115, 116, 117) may indicate the progress of each task.
  • the user may be displayed as “Task Completed,” if the user stops the task in the middle, it may be displayed as “Continue,” and if the user has not started the task, it may be displayed as “Start.” It may not be limited to this example.
  • the user may complete only a few detailed tasks among the seven tasks in the three categories and then stop.
  • the user can stop progressing in the middle of completing a detailed task.
  • the cognitive ability development system 2 can detect the user's interruption point and set different reminder methods based on this. Specifically, the cognitive ability development system 2 can detect that the user stops learning after completing a detailed task. In other words, it is possible to detect that the user completes learning about a detailed task and stops learning before starting another task. At this time, the cognitive ability development system 2 may recognize that the user is performing learning by changing the learning time or other circumstances. In other words, the cognitive ability development system 2 can determine general learning disruption and provide a general reminder message or motivational video.
  • the cognitive ability development system (2) can detect that the user stops midway through a detailed task. At this time, the cognitive ability development system 2 may further derive the user's status information. More specifically, if the user gives poor results while performing a detailed task and then stops learning, the user's learning difficulty level may not match, and difficulty adjustment can be performed taking this into consideration. Additionally, in the case described above, the cognitive ability development system 2 may also provide information about the average success rate of aborted missions or the mission departure rate of other users when providing a reminder to the user. In other words, the cognitive ability development system 2 can help the user proceed with learning without giving up by taking into account the user's point of interruption in a detailed task and providing additional information when reminded.
  • the cognitive ability development system 2 can detect that the user stops performing a detailed task while producing high learning results.
  • the cognitive ability development system 2 may provide a reminder to the user, provide the type and necessity of remaining missions, and also provide information that current grades are excellent.
  • the cognitive ability development system 2 can provide additional information that allows the user to continue learning without stopping.
  • the cognitive ability development system 2 may provide learning information of others along with user learning information.
  • the cognitive ability development system 2 can provide a platform to share the user's learning results with others, and through this, related information can be shared with other users to provide motivation for learning. .
  • the cognitive ability development system 2 can set reminder information differently considering the time when the user stops learning.
  • the cognitive ability development system 2 may generate user status information when the user stops learning.
  • the user status information may include information about whether the user stopped in the middle of a detailed task, or completed the detailed task and stopped before completing the entire task, as described above.
  • the user status information may include the user's learning ability recognition information based on the above-described user tracking information.
  • the cognitive ability development system 2 may derive information on the user's learning ability status through user tracking, as described above, for tasks performed up to the time the user stopped the task. For example, through user tracking, if a user reads the same sentence a lot or is not learning properly, the learning ability state may be determined to be low.
  • the cognitive ability development system 2 may obtain user status information by considering time information from the time the user started the task to the time the user stopped the task. For example, if a user stops a task after a long time has elapsed since starting the task, the user may have stopped learning due to other reasons rather than a problem in learning. As another example, the cognitive ability development system 2 may generate user status information related to learning interruption based on the user's average learning ability or digital therapy learning level. As another example, the cognitive ability development system 2 may continuously update external state information about the user and generate user state information by reflecting the user's current cognitive ability.
  • the user status information is big data and may be information that reflects various information about the user to determine whether the user is appropriately learning during the learning process, and is not limited to a specific embodiment.
  • the cognitive ability development system 2 may set different reminders for stopping learning through user status information.
  • the cognitive ability development system 2 can determine the reminder information provided when the user stops learning by reflecting the user status information.
  • FIG. 12A is a diagram showing a method of determining learning compliance based on the user's learning completion point according to an embodiment
  • FIG. 12B is a diagram showing a method of providing a reminder based on the user's learning compliance according to an embodiment. This is a drawing showing the method.
  • the user can stop learning after completing making kimchi (101) and remembering the previous card (102) as detailed tasks among the cognitive tasks (major tasks). In other words, the user can stop learning after completing learning about the detailed task.
  • the cognitive ability development system 2 may determine that the user's cessation of learning is based on the user's reasons rather than the impact of learning. As another example, the cognitive ability development system 2 may further consider other state information of the user and determine that learning interruption is based on the user's reasons rather than the impact of learning. At this time, the cognitive ability development system 2 may provide a reminder and “Continue (121)” and “End (122)” buttons, and may also provide schedule information for future learning.
  • the cognitive ability development system is “Restart after 5 minutes (123)”, “Restart after phone call (10 minutes) (124)”, “Restart after meal (1 hour later) (125)” and “Direct input (126)” buttons can be provided as reminder information.
  • the user can select specific information from the reminder information, and based on this, the cognitive ability development system 2 can set a notification, which will be described later.
  • FIGs 13a to 13d are diagrams showing a case where a user stops learning during learning.
  • the user can stop learning while completing the detailed tasks of making kimchi (101) and remembering the previous card (102), and growing tomatoes (103) as detailed tasks among the cognitive tasks (major tasks). there is.
  • the cognitive ability development system 2 may determine that the user's interruption of learning is an effect of learning.
  • the cognitive ability development system 2 may determine that learning interruption is based on the impact of learning by further considering other state information of the user.
  • the cognitive ability development system 2 can derive learning information 131 about growing tomatoes 103 as a detailed task.
  • the learning information 131 may be the above-described recognition score, time spent, progress rate, participation rate, and other information, and is not limited to a specific embodiment.
  • the cognitive ability development system 2 may compare the learning information 131 with the learning information 132 of other users. As an example, referring to FIG. 13C, the cognitive ability development system 2 considers the user's status information and learning ability described above and compares the current learning information 131 with the learning information 132 of other users to help the user learn. You can check whether learning is interrupted due to its impact on . At this time, referring to FIG. 13D, the cognitive ability development system 2 provides a reminder and “Continue (121)” and “End (122)” buttons, along with schedule information for subsequent learning. can be provided.
  • the cognitive ability development system includes “Restart in 5 minutes (131),” “Restart after phone call (10 minutes) (132),” “Lower difficulty value (133),” and “Get hints (134).” " button can be provided as reminder information.
  • the cognitive ability development system 2 may determine that the reason the user stopped learning was due to the learning impact, and provide reminder information considering the learning impact.
  • the reminder information may be set to one of the first interface information based on user reasons as shown in FIG. 12 and the second interface information based on learning influence as shown in FIG. 13 . That is, the cognitive ability development system 2 may provide a reminder as either the first interface information or the second interface information described above.
  • the cognitive ability development system 2 assigns weight to each of the above-described user status information, user-related information, and other information, derives each value, and selects either the first interface information or the second interface information. You can choose.
  • a positive weight may be provided for information unrelated to the learning progress in relation to the user's reasons.
  • a negative weight may be provided to information that may determine that learning has been stopped depending on learning influence.
  • the cognitive ability development system 2 may apply the above-described weight to the information that can be derived and provide a first interface if the final value is greater than 0, and provide a second interface if the final value is less than 0. That is, the cognitive ability development system 2 may set limiter information differently based on various information related to learning interruption, and is not limited to the above-described embodiment.
  • Figure 14 is a diagram illustrating a method of providing a reminder by comparing a user's learning compliance with other users according to an embodiment.
  • the cognitive ability development system 2 may further provide additional information to the user along with reminder information.
  • the cognitive ability development system 2 may recognize that the user is stopping learning based on information related to learning.
  • the cognitive ability development system 2 may provide additional information along with reminder information related to learning.
  • the additional information may be information 141 indicating the user's learning status in relation to user learning.
  • it may be information 141 that compares the user's learning status information with that of other users, and the user can continue learning through the information.
  • the additional information 141 may be information that allows the user to proceed further without giving up learning.
  • the additional information 141 may be compensation information provided to the user, through which further motivation for learning can be provided to the user.
  • the cognitive ability development system 2 may immediately set a reminder (rest and resume) in addition to continuing and ending based on the user's interruption of learning.
  • the cognitive ability development system 2 can present detailed items and send a message or automatically re-run the digital treatment program after a set period of time depending on the selected items.
  • the cognitive ability development system 2 may provide question information according to previously selected replay details before re-executing the digital treatment program.
  • the cognitive ability development system 2 may ask whether the user has been to the bathroom in response to the above-described “try again in 5 minutes” reminder information, provide an inquiry as to whether there was any discomfort while urinating, and receive user input and convert it into data.
  • the cognitive ability development system 2 may inquire about the meal information from the user and convert the user input into data.
  • the cognitive ability development system 2 may provide inquiries about who and what kind of call was made and how the user feels, and may receive user input and convert it into data.
  • inquiry provision and user input may be performed based on at least one of text and voice, and are not limited to a specific form.
  • FIGS. 15A and 15B are diagrams illustrating a method of performing learning reset based on a reminder according to an embodiment.
  • the cognitive ability development system 2 can detect user input according to learning interruption.
  • the cognitive ability development system 2 can provide the above-described “Continue (121)” and “End (122)” information to the user and detect the user’s final completion of learning.
  • the cognitive ability development system 2 provides the above-described reminder information to the user, and the above-mentioned "Restart after 5 minutes (123)", “Restart after phone call (10 minutes) (124)", " The “Restart after meal (1 hour later) (125)” and “Direct input (126)” buttons can be provided as reminder information.
  • the cognitive ability development system 2 can detect user input corresponding to the reminder information and determine whether to notify the digital treatment reset and re-run the program according to the corresponding information.
  • the cognitive ability development system 2 may re-execute the digital therapeutic agent based on the alarm and re-execution information.
  • the cognitive ability development system 2 may provide selected reminder-related information to the user.
  • the cognitive ability development system 2 may provide information about “Have you finished eating (151)” based on the user’s learning interruption due to eating and detect user input.
  • the cognitive ability development system (2) improves the learning effect by converting information about learning restart and user personal information into data such as “Which menu did you eat (152)” and “Do you want to start learning again (153)” You can do it.
  • FIG. 16 is a diagram illustrating a method of performing learning reset based on a reminder according to an embodiment.
  • the cognitive ability development system 2 may provide long-term schedule setting information based on user learning cessation.
  • the user may stop learning for a long period of time rather than in a short period of time as described above.
  • the cognitive ability development system 2 provides the user with information 161, 162 about the long-term plan and allows the user to reset learning. You can.
  • the cognitive ability development system 2 may provide notifications to the user in consideration of the user's status.
  • the cognitive ability development system 2 may provide a notification before a preset date or time according to the date and time set by the user.
  • the cognitive ability development system (2) can provide notifications in consideration of the user's condition.
  • the cognitive ability development system 2 may be linked with the user device 1.
  • the user has postponed learning for a long time, but if the user reuses or begins using the user device 1, the user may be sufficiently prepared to perform learning.
  • the cognitive ability development system 2 may provide an alarm when the user starts or restarts the user device 1 to perform digital therapeutic learning.
  • the cognitive ability development system 2 may force user learning based on the user device 1. For example, when the user starts or restarts to use the user device 1, the user is ready to learn, so the cognitive ability development system 2 performs the task as the above-described content upon starting the user device 1. It can run automatically. In other words, before starting the user device 1, the user must perform tasks provided as a digital therapeutic before using the user device 1. Through this, the cognitive ability development system 2 can enable the user to continuously perform learning, and is not limited to the above-described embodiment.
  • Figure 17 is a flowchart showing a reminder method to increase compliance with learning digital therapeutics according to an embodiment.
  • user learning can be performed based on the content.
  • S1710 After that, the user learning interruption input can be detected (S1720) and the user learning stopping point can be confirmed.
  • S1730 At this time, the user User learning reminder settings can be performed based on the time of learning interruption, as described above (S1740).
  • the cognitive ability development server 2 or the cognitive ability development system 2 may include a content provision module 21, an input module 22, an analysis module 23, and a machine learning module 24. You can. At this time, user learning including content is performed based on the content provision module 21, user learning interruption input is detected based on the input module 22, user learning interruption point is confirmed, and user learning reminder is provided. You can perform settings.
  • user learning includes at least one major task and at least one detailed task within the major task, and user learning can be completed only when at least one major task is completed.
  • the major task may be the cognitive task, exercise task, or nutritional task described above.
  • the major task may be a task divided into the five cognitive areas of vascular disease management, cognitive training, exercise, nutritional management, and motivation enhancement, and is not limited to a specific embodiment.
  • the point in time when the user stops learning is when at least one or more detailed tasks within the main task are completed or when at least one or more detailed tasks are being performed. can do.
  • different reminder information may be provided based on the user learning reminder setting depending on when the user stops learning. For example, if the time when the user stops learning is when at least one detailed task within the major task is completed, only reminder information inquiring about whether to continue or end learning may be provided to the user. That is, as described above, only “Continue” and “Quit” information can be provided.
  • reminder information related to learning restart can be provided in addition to the reminder information asking the user whether to continue or end learning. Additionally, if the user's learning interruption point is during a detailed task, it is possible to detect that learning is interrupted based on either the user's personal reasons or reasons affecting the learning progress.
  • reminder information is provided based on the first interface
  • reminder information provided based on the second interface may be reminder information related to the user's learning restart
  • reminder information provided based on the second interface may be reminder information related to the user's learning restart and reminder information related to learning difficulty adjustment, , which is the same as described above.
  • user status information can be further derived, and the first interface or the second interface can be determined based on the user status information.
  • the user status information may be obtained through tracking information on at least one of the user's face, the user's hands, and the user's body, and may be the status information described above.
  • a notification about the user learning progress may be provided or the user learning progress may be re-executed after a preset time based on the reminder setting information.
  • the user restarts user learning based on the user learning reminder setting information related to the reminder setting is provided to the user, and user learning can be restarted after detecting the user's input and converting the information related to the reminder setting into data. there is.
  • Computer-readable recording media on which programs for implementing the embodiments are recorded include all types of recording devices that store data that can be read by a computer. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, and optical data storage devices. Additionally, computer-readable recording media may be distributed across computer systems connected to a network, and computer-readable codes may be stored and executed in a distributed manner. Additionally, functional programs, codes, and code segments for implementing this embodiment can be easily understood by those skilled in the art to which this embodiment belongs.
  • This specification relates to an invention that provides a method of checking digital therapeutic learning compliance through the user's learning progress, and can be used industrially.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Anesthesiology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Psychology (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Hospice & Palliative Care (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Emergency Management (AREA)
  • Child & Adolescent Psychology (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Psychiatry (AREA)
  • Developmental Disabilities (AREA)
  • Social Psychology (AREA)
  • Pathology (AREA)
  • Pain & Pain Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Hematology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

According to an embodiment of the present specification, a remind method for increasing the compliance with learning digital therapeutics may comprise the steps of: conducting user learning on the basis of content; detecting a user learning interruption input; identifying a user learning interruption time point; and setting a user learning reminder.

Description

디지털 치료제 학습 순응도를 높이기 위한 리마인드 방법 및 장치Reminder method and device to increase compliance with learning digital therapeutics
본 발명은 디지털 치료제 학습 순응도를 높이기 위한 리마인드 방법 및 장치에 대한 것이다. 보다 상세하게는, 디지털 치료제 학습을 수행하는 사용자의 학습 순응도를 높이기 위해 라마인드 방법을 설정하는 방법에 대한 것이다. The present invention relates to a reminder method and device for increasing compliance with learning digital therapeutics. More specifically, it is about a method of setting up the LaMind method to increase the learning compliance of users performing digital therapeutics learning.
의학의 발달에 의해 평균 수명이 증가하면서, 전세계적으로 고령화가 진행되고 있다. 한국의 경우 2000년에 65세 이상 노인 인구의 비율이 전체 인구의 7.2%로서 고령화 사회에 진입하였으며, 2017년에는 노인 인구 비율이 14%를 넘어 고령 사회로 진입하였다. 2030년에는 한국의 노인 인구 비율은 24.3%에 이르러 한국은 초고령 사회가 될 것으로 예측되고 있다. As average life expectancy increases due to advances in medicine, aging is progressing worldwide. In the case of Korea, the proportion of the elderly population aged 65 or older was 7.2% of the total population in 2000, entering an aging society, and in 2017, the proportion of the elderly population exceeded 14%, entering an aging society. It is predicted that by 2030, the proportion of the elderly population in Korea will reach 24.3%, making Korea a super-aging society.
이와 같은 급속한 고령화에 의한 영향으로, 치매 인구가 급격하게 증가하는 추세에 있다. 전 세계 치매 인구는 2010년 기준으로 약 3,560만명에 이르며, 2050년에는 치매 인구가 약 3배 증가하여 1억 1,540만명에 이를 것으로 예상된다. 한국에서도 2005년 인구 센서스 기준 연령, 성별, 교육, 거주지역 표준화 치매 유병률을 기준으로 추산한 향후 연도별 치매 유병률은 2012년에 9.08%, 2020년에 9.74%, 2030년에 9.61%, 2040년에 11.21%, 그리고 2050년에 13.17%로 증가되어 2027년에는 치매 인구가 100만명을 초과하고, 2050년에는 치매 인구가 212만명에 이를 것으로 예측되고 있다. Due to the effects of this rapid aging, the dementia population is rapidly increasing. As of 2010, the global dementia population reached approximately 35.6 million, and by 2050, the dementia population is expected to increase approximately three-fold to 115.4 million. In Korea, the prevalence of dementia by future years, estimated based on age, gender, education, and residential area standardized dementia prevalence based on the 2005 population census, is 9.08% in 2012, 9.74% in 2020, 9.61% in 2030, and 2040. It is predicted that the dementia population will increase to 11.21% and 13.17% in 2050, exceeding 1 million in 2027, and reaching 2.12 million in 2050.
치매 인구가 급격히 증가함에 따라, 치매의 치료 및 관리 비용 또한 증가하고 있다. 치매의 사회적 비용은 암, 심장질환, 뇌졸중의 세 가지 질병을 모두 합한 비용을 초과하는 것으로 추정되며, 한국의 경우 치매로 인한 연간 총 진료비는 2010년 기준 8,100억원으로 노인성질환 중 2위이고, 1인당 치매 진료비는 연간 310만원으로 5대 만성질환 중 가장 높은 것으로 나타나고 있다. 또한, 한국의 국가 총 치매 비용은 연간 8조 7천억원으로 10년마다 두배씩 증가할 것으로 추정된다. As the dementia population rapidly increases, the cost of dementia treatment and management is also increasing. The social cost of dementia is estimated to exceed the combined cost of all three diseases - cancer, heart disease, and stroke. In Korea, the total annual medical cost due to dementia was KRW 810 billion as of 2010, ranking second among geriatric diseases, 1 Dementia treatment costs per person are 3.1 million won per year, the highest among the five major chronic diseases. Additionally, Korea's total national dementia cost is estimated to double every 10 years to 8.7 trillion won per year.
급격히 증가하는 치매로 인한 사회적 및 경제적 부담을 줄이기 위해서는, 치매 고위험군의 조기 발견을 통한 적극적 치료를 통하여 치매의 발병을 지연시킬 필요가 있다. 이를 위한 종래의 기술로, 등록특허공보 제10-1295187호는 선별된 콘텐츠에 대하여 전달한 사용자의 피드백에 따른 획득점수에 따라 사용자의 성취도를 부여함으로써 치매 예방 기능을 수행하는 뇌기능 향상 시스템 및 그 운용방법을 개시한다. In order to reduce the rapidly increasing social and economic burden of dementia, it is necessary to delay the onset of dementia through early detection and active treatment of high-risk dementia groups. As a conventional technology for this purpose, Registered Patent Publication No. 10-1295187 is a brain function improvement system and its operation that performs the function of preventing dementia by giving the user a level of achievement according to the score obtained according to the user's feedback regarding the selected content. Disclose the method.
그러나, 치매 예방 및 치료를 위한 종래의 인지 중재 치료법은 병원 등 기관에 방문하여 전문가의 주관 하에 시행하여야 하므로 1회에 5~12만원에 달하는 높은 치료 비용을 지불하여야 하는 것이 대부분이다. 또한, 컴퓨팅 장치를 이용한 인지 중재 치료 프로그램도 개발되었으나, 장치 1대에 5천만원에 달하는 높은 비용으로 인하여 일반적인 사용자들이 사용하기 어려운 한계가 있다. 하기에서는 상술한 점을 고려하여 디지털 치료제로써 사용자 시점 트래킹을 이용하는 방법과 함께 디지털 치료제를 이용하는 사용자의 학습 순응도를 높이기 위한 방법에 대해 서술한다.However, conventional cognitive intervention treatments for dementia prevention and treatment require visits to institutions such as hospitals and are administered under the supervision of experts, so in most cases, high treatment costs of 50,000 to 120,000 won per treatment must be paid. In addition, cognitive intervention therapy programs using computing devices have been developed, but the high cost of up to 50 million won per device makes them difficult for general users to use. In the following, in consideration of the above-mentioned points, we will describe a method of using user viewpoint tracking as a digital therapeutic and a method to increase learning compliance of users using digital therapeutics.
[선행기술문헌][Prior art literature]
[특허문헌][Patent Document]
한국특허공보 제10-1295187호Korean Patent Publication No. 10-1295187
본 명세서는 디지털 치료제 학습 순응도를 높이기 위한 리마인드 방법 및 장치에 대한 것이다. This specification relates to a reminder method and device for increasing compliance with learning digital therapeutics.
본 명세서는 디지털 치료제 학습 순응도를 사용자 학습 진행 상태를 통해 확인하는 방법 및 장치에 대한 것이다.This specification relates to a method and device for confirming digital therapeutic learning compliance through the user learning progress status.
본 명세서는 디지털 치료제 학습 순응도에 기초하여 사용자에게 제공하는 리마인드 방법을 상이하게 설정하는 방법 및 장치에 대한 것이다.This specification relates to a method and device for setting different reminder methods to provide users based on learning compliance with digital therapeutics.
본 명세서는 사용자 시점 트래킹에 기초하여 사용자 인지 상태를 판단하고, 판단된 사용자 인지 상태를 고려하여 콘텐츠를 제공하는 방법 및 장치에 대한 것이다.This specification relates to a method and device for determining a user's cognitive state based on user viewpoint tracking and providing content in consideration of the determined user's cognitive state.
명세서의 해결하고자 하는 과제는 상술한 바에 한정되지 아니하고, 하기에서 설명하는 발명의 실시예들에 의해 도출될 수 있는 다양한 사항들로 확장될 수 있다.The problem to be solved by the specification is not limited to the above, and can be expanded to various matters that can be derived by the embodiments of the invention described below.
본 명세서의 일 실시예에 따라, 디지털 치료제 학습 순응도를 높이기 위한 리마인드 방법에 있어서, 콘텐츠에 기초하여 사용자 학습을 진행하는 단계, 사용자 학습 중단 입력을 디텍트하는 단계, 사용자 학습 중단 시점을 확인하는 단계 및 사용자 학습 리마인드 설정을 수행하는 단계를 포함할 수 있다.According to an embodiment of the present specification, in the reminder method for increasing compliance with digital therapeutics learning, the steps include performing user learning based on content, detecting user learning interruption input, and confirming the point of user learning interruption. And it may include the step of setting a user learning reminder.
또한, 본 명세서의 일 실시예에 따라, 디지털 치료제 학습 순응도를 높이기 위한 리마인드를 수행하는 인지 능력 개발 서버에 있어서, 인지 능력 개발 서버는, 콘텐츠 제공 모듈, 입력 모듈, 분석 모듈 및 머신러닝 모듈을 포함하고, 콘텐츠 제공 모듈에 기초하여 콘텐츠를 포함하는 사용자 학습을 진행하고, 입력 모듈에 기초하여 사용자 학습 중단 입력을 디텍트하고, 사용자 학습 중단 시점을 확인하고, 및 사용자 학습 리마인드 설정을 수행할 수 있다. In addition, according to an embodiment of the present specification, in the cognitive ability development server that performs reminders to increase compliance with learning digital therapeutics, the cognitive ability development server includes a content provision module, an input module, an analysis module, and a machine learning module. Based on the content provision module, user learning including the content can be performed, user learning interruption input can be detected based on the input module, user learning interruption point can be confirmed, and user learning reminder setting can be performed. .
본 명세서의 일 실시예에 따라, 사용자 학습은 적어도 하나의 대과제 및 대과제 내의 적어도 하나 이상의 세부과제를 포함하고, 사용자 학습은 적어도 하나의 대과제를 모두 완료하여야 학습이 완료될 수 있다.According to an embodiment of the present specification, user learning includes at least one major task and at least one detailed task within the major task, and user learning can be completed only when all of at least one major task is completed.
또한, 본 명세서의 일 실시예에 따라, 사용자 학습 중단 시점을 디텍트하는 단계는 사용자 학습 중단 시점이 대과제 내의 적어도 하나 이상의 세부과제를 완료한 시점인지 또는 적어도 하나 이상의 세부과제를 수행하는 도중의 시점인지 여부를 디텍트하고, 사용자 학습 중단 시점에 따라 사용자 학습 리마인드 설정에 기초하여 상이한 리마인드 정보를 제공할 수 있다.In addition, according to an embodiment of the present specification, the step of detecting the user learning interruption point determines whether the user learning interruption point is when at least one or more detailed tasks within the main task are completed or while performing at least one or more detailed tasks. It is possible to detect whether it is the time point and provide different reminder information based on the user learning reminder setting depending on the point in time when the user stops learning.
또한, 본 명세서의 일 실시예에 따라, 사용자 학습 중단 시점이 대과제 내의 적어도 하나 이상의 세부과제를 완료한 시점인 경우, 사용자에게 학습의 계속 여부 및 종료 여부를 문의하는 리마인드 정보만을 제공하고, 사용자 학습 중단 시점이 세부과제 도중인 경우, 사용자에게 학습의 계속 여부 및 종료 여부를 문의하는 리마인드 정보에 학습 재시작 관련 리마인드 정보를 더 제공할 수 있다.In addition, according to an embodiment of the present specification, when the time when the user stops learning is when at least one detailed task within the major task is completed, only reminder information inquiring about whether to continue or end learning is provided to the user, and the user If the learning interruption point is during a detailed task, reminder information related to learning restart can be provided in addition to the reminder information asking the user whether to continue or end learning.
또한, 본 명세서의 일 실시예에 따라, 사용자 학습 중단 시점이 세부과제 도중인 경우, 사용자 개인 사유 또는 학습 진행 영향 사유 중 어느 하나에 기초하여 학습이 중단됨을 디텍트하고, 사용자 개인 사유에 기초하여 학습이 중단된 경우, 제 1 인터페이스에 기초하여 리마인드 정보를 제공하고, 학습 진행 영향 사유에 기초하여 학습이 중단된 경우, 제 2 인터페이스에 기초하여 리마인드 정보를 제공할 수 있다.In addition, according to an embodiment of the present specification, when the user's learning interruption point is during a detailed task, it is detected that learning is stopped based on either the user's personal reason or the reason for the influence of learning progress, and based on the user's personal reason When learning is interrupted, reminder information may be provided based on the first interface, and when learning is interrupted based on reasons affecting learning progress, reminder information may be provided based on the second interface.
또한, 본 명세서의 일 실시예에 따라, 제 1 인터페이스에 기초하여 제공되는 리마인드 정보는 사용자의 학습 재시작 관련 리마인드 정보이고, 제 2 인터페이스에 기초하여 제공되는 리마인드 정보는 사용자의 학습 재시작 관련 리마인드 정보 및 학습 난이도 조정 관련 리마인드 정보일 수 있다.In addition, according to an embodiment of the present specification, the reminder information provided based on the first interface is reminder information related to the user's learning restart, and the reminder information provided based on the second interface is reminder information related to the user's learning restart and This may be reminder information related to learning difficulty adjustment.
또한, 본 명세서의 일 실시예에 따라, 사용자 개인 사유 또는 학습 진행 영향 사유 중 어느 하나에 기초하여 학습이 중단됨을 디텍트하는 경우, 사용자 상태 정보를 더 도출하고, 사용자 상태 정보에 기초하여 제 1 인터페이스 또는 제 2 인터페이스를 결정할 수 있다.In addition, according to an embodiment of the present specification, when it is detected that learning is stopped based on any of the user's personal reasons or reasons affecting the learning progress, user status information is further derived, and the first An interface or a second interface may be determined.
또한, 본 명세서의 일 실시예에 따라, 사용자 상태 정보는 사용자의 얼굴, 사용자의 손 및 사용자의 신체 중 적어도 어느 하나 이상을 트래킹한 정보를 통해 획득될 수 있다.Additionally, according to an embodiment of the present specification, user status information may be obtained through information tracking at least one of the user's face, the user's hands, and the user's body.
또한, 본 명세서의 일 실시예에 따라, 사용자 학습 리마인드가 설정된 경우, 리마인드 설정 정보에 기초하여 기 설정된 시간 후에 사용자 학습 진행에 대한 알림을 제공하거나 사용자 학습 진행을 재실행할 수 있다.Additionally, according to an embodiment of the present specification, when a user learning reminder is set, a notification about the user learning progress may be provided or the user learning progress may be re-executed after a preset time based on the reminder setting information.
또한, 본 명세서의 일 실시예에 따라, 사용자 학습 리마인드 설정에 기초하여 사용자가 사용자 학습을 재시작하는 경우, 사용자에게 리마인드 설정 관련 정보가 제공되고, 사용자에 대한 입력을 디텍트하여 리마인드 설정 관련 정보를 데이터화 한 후 사용자 학습을 재시작할 수 있다.In addition, according to an embodiment of the present specification, when the user restarts user learning based on the user learning reminder setting, reminder setting-related information is provided to the user, and the user's input is detected and reminder setting-related information is provided. After data conversion, user learning can be restarted.
본 명세서는 본 명세서는 디지털 치료제 학습 순응도를 높이기 위한 리마인드 방법을 제공할 수 있다.This specification can provide a reminder method to increase compliance with learning digital therapeutics.
본 명세서는 디지털 치료제 학습 순응도를 사용자 학습 진행 상태를 통해 확인하는 방법을 제공할 수 있다.The present specification may provide a method for confirming digital therapeutic learning compliance through the user learning progress status.
본 명세서는 디지털 치료제 학습 순응도에 기초하여 사용자에게 제공하는 리마인드 방법을 상이하게 설정하는 방법을 제공할 수 있다.The present specification may provide a method of setting different reminders provided to users based on digital therapeutic learning compliance.
본 명세서는 사용자 시점 트래킹에 기초하여 사용자 인지 상태를 판단하고, 판단된 사용자 인지 상태를 고려하여 콘텐츠를 제공할 수 있다.This specification can determine the user's cognitive state based on user viewpoint tracking and provide content by considering the determined user's cognitive state.
본 명세서의 효과는 위 기재된 사항에 한정되지 아니하며, 아래 발명의 실시예들에 대한 상세한 설명으로부터 도출될 수 있는 다양한 내용들로 확장될 수 있음이 이해되어야 한다.It should be understood that the effect of the present specification is not limited to the matters described above, and can be expanded to various contents that can be derived from the detailed description of the embodiments of the invention below.
도 1은 일 실시예에 따른 인지능력 개발 시스템의 개략적인 블록도이다. 1 is a schematic block diagram of a cognitive ability development system according to an embodiment.
도 2는 일 실시예에 따른 인지능력 개발 방법의 각 단계를 도시하는 순서도이다. Figure 2 is a flowchart showing each step of a cognitive ability development method according to an embodiment.
도 3은 일 실시예에 따른 인지능력 개발 방법에 의한 데이터 처리 과정을 설명하기 위한 개념도이다. Figure 3 is a conceptual diagram illustrating a data processing process by a cognitive ability development method according to an embodiment.
도 4는 일 실시예에 따른 사용자 시점을 트래킹하는 방법을 나타낸 도면이다.Figure 4 is a diagram showing a method for tracking a user's viewpoint according to an embodiment.
도 5a는 일 실시예에 따라 사용자 시점 트래킹에 기초하여 사용자 정보를 추출하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.FIG. 5A is a diagram illustrating a method of extracting user information and upgrading a digital therapeutic product based on user viewpoint tracking according to an embodiment.
도 5b는 일 실시예에 따라 사용자 시점 트래킹에 기초하여 사용자 정보를 추출하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.Figure 5b is a diagram illustrating a method of extracting user information and upgrading a digital therapeutic product based on user viewpoint tracking according to an embodiment.
도 5c는 일 실시예에 따라 사용자 시점 트래킹에 기초하여 사용자 정보를 추출하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.FIG. 5C is a diagram illustrating a method of extracting user information and upgrading a digital therapeutic product based on user viewpoint tracking according to an embodiment.
도 5d는 일 실시예에 따라 사용자 시점 트래킹에 기초하여 사용자 정보를 추출하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.FIG. 5D is a diagram illustrating a method of extracting user information and upgrading a digital therapeutic product based on user viewpoint tracking according to an embodiment.
도 6a는 일 실시예에 따라 사용자 손을 트래킹하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.FIG. 6A is a diagram illustrating a method for tracking a user's hand and enhancing a digital therapeutic agent according to an embodiment.
도 6b는 일 실시예에 따라 사용자 손을 트래킹하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.FIG. 6B is a diagram illustrating a method for tracking a user's hand and enhancing a digital therapeutic agent according to an embodiment.
도 6c는 일 실시예에 따라 사용자 손을 트래킹하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.FIG. 6C is a diagram illustrating a method for tracking a user's hand and improving digital therapeutics according to an embodiment.
도 7a는 일 실시예에 따라 사용자 시점 및 사용자 손을 트래킹하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.FIG. 7A is a diagram illustrating a method for tracking the user's viewpoint and hand and upgrading a digital therapeutic agent according to an embodiment.
도 7b는 일 실시예에 따라 사용자 시점 및 사용자 손을 트래킹하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.Figure 7b is a diagram illustrating a method for tracking the user's viewpoint and hand and upgrading a digital therapeutic agent according to an embodiment.
도 8a는 일 실시예에 따라 트래킹에 기초하여 가상 이미지를 조정하는 방법을 나타낸 도면이다.FIG. 8A is a diagram illustrating a method of adjusting a virtual image based on tracking according to an embodiment.
도 8b는 일 실시예에 따라 트래킹에 기초하여 가상 이미지를 조정하는 방법을 나타낸 도면이다.FIG. 8B is a diagram illustrating a method of adjusting a virtual image based on tracking according to an embodiment.
도 9a는 일 실시예에 따라 트래킹에 기초하여 사용자 상태를 파악하는 방법을 나타낸 도면이다.FIG. 9A is a diagram illustrating a method of determining user status based on tracking according to an embodiment.
도 9b는 일 실시예에 따라 트래킹에 기초하여 사용자 상태를 파악하는 방법을 나타낸 도면이다.FIG. 9B is a diagram illustrating a method of determining user status based on tracking according to an embodiment.
도 10은 일 실시예에 따라 디지털 치료제 학습 과제를 나타낸 도면이다.Figure 10 is a diagram showing a digital therapeutics learning task according to one embodiment.
도 11은 일 실시예에 따라 디지털 치료제 학습 과제 진행 상태를 나타낸 도면이다.Figure 11 is a diagram showing the progress of a digital therapeutics learning task according to an embodiment.
도 12a는 일 실시예에 따라 사용자의 학습 종료 시점에 기초하여 학습 순응도를 판단하는 방법을 나타낸 도면이다.FIG. 12A is a diagram illustrating a method of determining learning compliance based on a user's learning completion point according to an embodiment.
도 12b는 일 실시예에 따라 사용자의 학습 순응도에 기초하여 리마인드를 제공하는 방법을 나타낸 도면이다.Figure 12b is a diagram illustrating a method of providing a reminder based on a user's learning compliance, according to an embodiment.
도 13a는 일 실시예에 따라 사용자의 학습 종료 시점에 기초하여 학습 순응도를 판단하는 방법을 나타낸 도면이다.FIG. 13A is a diagram illustrating a method of determining learning compliance based on a user's learning completion point according to an embodiment.
도 13b는 일 실시예에 따라 사용자의 학습 순응도에 기초하여 리마인드를 제공하는 방법을 나타낸 도면이다.Figure 13b is a diagram illustrating a method of providing a reminder based on a user's learning compliance according to an embodiment.
도 13c는 일 실시예에 따라 사용자의 학습 순응도에 기초하여 리마인드를 제공하는 방법을 나타낸 도면이다.FIG. 13C is a diagram illustrating a method of providing a reminder based on a user's learning compliance according to an embodiment.
도 13d는 일 실시예에 따라 사용자의 학습 순응도에 기초하여 리마인드를 제공하는 방법을 나타낸 도면이다.FIG. 13D is a diagram illustrating a method of providing a reminder based on a user's learning compliance according to an embodiment.
도 14는 일 실시예에 따라 사용자의 학습 순응도를 다른 사용자와 비교하여 리마인드를 제공하는 방법을 나타낸 도면이다.Figure 14 is a diagram illustrating a method of providing a reminder by comparing a user's learning compliance with other users according to an embodiment.
도 15a는 일 실시예에 따라 리마인드에 기초하여 학습 재설정을 수행하는 방법을 나타낸 도면이다.FIG. 15A is a diagram illustrating a method of performing learning reset based on a reminder according to an embodiment.
도 15b는 일 실시예에 따라 리마인드에 기초하여 학습 재설정을 수행하는 방법을 나타낸 도면이다.FIG. 15B is a diagram illustrating a method of performing learning reset based on a reminder according to an embodiment.
도 16는 일 실시예에 따라 리마인드에 기초하여 학습 재설정을 수행하는 방법을 나타낸 도면이다.FIG. 16 is a diagram illustrating a method of performing learning reset based on a reminder according to an embodiment.
도 17는 일 실시예에 따라 디지털 치료제 학습 순응도를 높이기 위한 리마인드 방법을 나타낸 순서도이다.Figure 17 is a flowchart showing a reminder method to increase compliance with learning digital therapeutics according to an embodiment.
본 명세서의 실시예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 실시예의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 명세서의 실시예에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. In describing the embodiments of the present specification, if it is determined that a detailed description of a known configuration or function may obscure the gist of the embodiments of the present specification, the detailed description thereof will be omitted. In addition, in the drawings, parts that are not related to the description of the embodiments of the present specification are omitted, and similar parts are given similar reference numerals.
본 명세서의 실시예에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다. In the embodiments of the present specification, when a component is said to be “connected,” “coupled,” or “connected” to another component, this refers not only to a direct connection relationship, but also to an indirect relationship where another component exists in between. Connection relationships may also be included. In addition, when a component is said to "include" or "have" another component, this does not mean excluding the other component, but may further include another component, unless specifically stated to the contrary. .
본 명세서의 실시예에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 명세서의 실시예의 범위 내에서 실시예에서의 제1 구성요소는 다른 실시예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 실시예에서의 제2 구성요소를 다른 실시예에서 제1 구성요소라고 칭할 수도 있다. In the embodiments of this specification, terms such as first, second, etc. are used only for the purpose of distinguishing one component from other components, and do not limit the order or importance of components unless specifically mentioned. No. Therefore, within the scope of the embodiments of the present specification, the first component in an embodiment may be referred to as a second component in another embodiment, and similarly, the second component in the embodiment may be referred to as the first component in another embodiment. It may also be called.
본 명세서의 실시예에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시예도 본 명세서의 실시예의 범위에 포함된다. In the embodiments of the present specification, distinct components are intended to clearly explain each feature, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to form one hardware or software unit, or one component may be distributed to form a plurality of hardware or software units. Therefore, even if not specifically mentioned, such integrated or distributed embodiments are also included in the scope of the embodiments of the present specification.
본 명세서에서 네트워크는 유무선 네트워크를 모두 포함하는 개념일 수 있다. 이때, 네트워크는 디바이스와 시스템 및 디바이스 상호 간의 데이터 교환이 수행될 수 있는 통신망을 의미할 수 있으며, 특정 네트워크로 한정되는 것은 아니다. In this specification, a network may be a concept that includes both wired and wireless networks. At this time, the network may refer to a communication network in which data exchange between devices, systems, and devices can be performed, and is not limited to a specific network.
본 명세서에 기술된 실시예는 전적으로 하드웨어이거나, 부분적으로 하드웨어이고 부분적으로 소프트웨어이거나, 또는 전적으로 소프트웨어인 측면을 가질 수 있다. 본 명세서에서 "부(unit)", "장치" 또는 "시스템" 등은 하드웨어, 하드웨어와 소프트웨어의 조합, 또는 소프트웨어 등 컴퓨터 관련 엔티티(entity)를 지칭한다. 예를 들어, 본 명세서에서 부, 모듈, 장치 또는 시스템 등은 실행중인 프로세스, 프로세서, 객체(object), 실행 파일(executable), 실행 스레드(thread of execution), 프로그램(program), 및/또는 컴퓨터(computer)일 수 있으나, 이에 제한되는 것은 아니다. 예를 들어, 컴퓨터에서 실행중인 애플리케이션(application) 및 컴퓨터의 양쪽이 모두 본 명세서의 부, 모듈, 장치 또는 시스템 등에 해당할 수 있다. Embodiments described herein may have aspects that are entirely hardware, partly hardware and partly software, or entirely software. In this specification, “unit,” “device,” or “system” refers to computer-related entities such as hardware, a combination of hardware and software, or software. For example, in this specification, a part, module, device, or system refers to a running process, processor, object, executable, thread of execution, program, and/or computer. It may be a (computer), but is not limited thereto. For example, both an application running on a computer and the computer may correspond to a part, module, device, or system in the present specification.
또한, 본 명세서에서 디바이스는 스마트폰, 태블릿 PC, 웨어러블 디바이스 및 HMD(Head Mounted Display)와 같이 모바일 디바이스뿐만 아니라, PC나 디스플레이 기능을 구비한 가전처럼 고정된 디바이스일 수 있다. 또한, 일 예로, 디바이스는 차량 내 클러스터 또는 IoT (Internet of Things) 디바이스일 수 있다. 즉, 본 명세서에서 디바이스는 어플리케이션 동작이 가능한 기기들을 지칭할 수 있으며, 특정 타입으로 한정되지 않는다. 하기에서는 설명의 편의를 위해 어플리케이션이 동작하는 기기를 디바이스로 지칭한다.Additionally, in this specification, the device may be a mobile device such as a smartphone, tablet PC, wearable device, and HMD (Head Mounted Display), as well as a fixed device such as a PC or a home appliance with a display function. Additionally, as an example, the device may be a cluster within a vehicle or an Internet of Things (IoT) device. That is, in this specification, a device may refer to devices capable of operating an application, and is not limited to a specific type. In the following, for convenience of explanation, the device on which the application runs is referred to as a device.
본 명세서에 있어서 네트워크의 통신 방식은 제한되지 않으며, 각 구성요소간 연결이 동일한 네트워크 방식으로 연결되지 않을 수도 있다. 네트워크는, 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망, 위성망 등)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크는, 객체와 객체가 네트워킹 할 수 있는 모든 통신 방법을 포함할 수 있으며, 유선 통신, 무선 통신, 3G, 4G, 5G, 혹은 그 이외의 방법으로 제한되지 않는다. 예를 들어, 유선 및/또는 네트워크는 LAN(Local Area Network), MAN(Metropolitan Area Network), GSM(Global System for Mobile Network), EDGE(Enhanced Data GSM Environment), HSDPA(High Speed Downlink Packet Access), W-CDMA(Wideband Code Division Multiple Access), CDMA(Code Division Multiple Access), TDMA(Time Division Multiple Access), 블루투스(Bluetooth), 지그비(Zigbee), 와이-파이(Wi-Fi), VoIP(Voice over Internet Protocol), LTE Advanced, IEEE802.16m, WirelessMAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX (IEEE 802.16e), UMB (formerly EV-DO Rev. C), Flash-OFDM, iBurst and MBWA (IEEE 802.20) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX(World Interoperability for Microwave Access) 및 초음파 활용 통신으로 이루어진 군으로부터 선택되는 하나 이상의 통신 방법에 의한 통신 네트워크를 지칭할 수 있으나, 이에 한정되는 것은 아니다.In this specification, the network communication method is not limited, and connections between each component may not be connected through the same network method. The network may include not only a communication method utilizing a communication network (for example, a mobile communication network, wired Internet, wireless Internet, broadcasting network, satellite network, etc.), but also short-range wireless communication between devices. For example, a network can include objects and any communication method through which objects can be networked, and is not limited to wired communication, wireless communication, 3G, 4G, 5G, or other methods. For example, wired and/or networks include Local Area Network (LAN), Metropolitan Area Network (MAN), Global System for Mobile Network (GSM), Enhanced Data GSM Environment (EDGE), High Speed Downlink Packet Access (HSDPA), W-CDMA (Wideband Code Division Multiple Access), CDMA (Code Division Multiple Access), TDMA (Time Division Multiple Access), Bluetooth, Zigbee, Wi-Fi, VoIP (Voice over Internet Protocol), LTE Advanced, IEEE802.16m, WirelessMAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX (IEEE 802.16e), UMB (formerly EV-DO Rev. C), Flash-OFDM, iBurst and It may refer to a communication network using one or more communication methods selected from the group consisting of MBWA (IEEE 802.20) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX (World Interoperability for Microwave Access), and ultrasonic communication. However, it is not limited to this.
다양한 실시예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 실시예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시예도 본 명세서의 실시예의 범위에 포함된다. 또한, 다양한 실시예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시예도 본 명세서의 실시예의 범위에 포함된다.Components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, embodiments consisting of a subset of the elements described in the embodiments are also included in the scope of the embodiments of the present specification. In addition, embodiments that include other components in addition to the components described in the various embodiments are also included in the scope of the embodiments of the present specification.
이하에서, 도면을 참조하여 본 명세서의 실시예들에 대하여 상세히 살펴본다.Hereinafter, embodiments of the present specification will be examined in detail with reference to the drawings.
도 1은 일 실시예에 따른 인지능력 개발 시스템의 개략적인 블록도이다. 1 is a schematic block diagram of a cognitive ability development system according to an embodiment.
도 1을 참조하면, 본 실시예에 따른 인지능력 개발 시스템(2)은 콘텐츠 제공 모듈(21), 입력 모듈(22), 분석 모듈(23) 및 머신러닝(machine learning) 모듈(24)을 포함한다. 또한, 각각의 모듈(21-24)은 하나 또는 복수의 기능 부(unit)를 포함할 수 있다. Referring to Figure 1, the cognitive ability development system 2 according to this embodiment includes a content provision module 21, an input module 22, an analysis module 23, and a machine learning module 24. do. Additionally, each module 21-24 may include one or more functional units.
실시예들에 따른 인지능력 개발 시스템(2)과 이에 포함된 각 모듈(21-24) 또는 부는, 전적으로 하드웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 인지능력 개발 시스템(2)의 각 모듈(21-24) 또는 부는 특정 형식 및 내용의 데이터를 처리하거나 또는/또한 전자통신 방식으로 주고받기 위한 하드웨어 및 이에 관련된 소프트웨어를 통칭할 수 있다. 본 명세서에서 "부", "모듈", "장치", "단말기", "서버" 또는 "시스템" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 하드웨어는 CPU 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 하드웨어에 의해 구동되는 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.The cognitive ability development system 2 according to embodiments and each module 21 to 24 or units included therein may be entirely hardware, or may have aspects that are partly hardware and partly software. For example, each module 21-24 or unit of the cognitive ability development system 2 may collectively refer to hardware and software related thereto for processing data of a specific format and content and/or exchanging data through electronic communication. In this specification, terms such as “unit,” “module,” “device,” “terminal,” “server,” or “system” are intended to refer to a combination of hardware and software driven by the hardware. For example, hardware may be a data processing device that includes a CPU or other processor. Additionally, software driven by hardware may refer to a running process, object, executable, thread of execution, program, etc.
또한, 인지능력 개발 시스템(2)을 구성하는 각각의 요소는 반드시 서로 물리적으로 구분되는 별개의 장치를 지칭하는 것으로 의도되지 않는다. 즉, 도 1의 콘텐츠 제공 모듈(21), 입력 모듈(22), 분석 모듈(23) 및 머신러닝 모듈(24)은 인지능력 개발 시스템(2)을 구성하는 하드웨어를 해당 하드웨어에 의해 수행되는 동작에 따라 기능적으로 구분한 것일 뿐, 반드시 각각의 부가 서로 독립적으로 구비되어야 하는 것이 아니다. 물론, 실시예에 따라서는 콘텐츠 제공 모듈(21), 입력 모듈(22), 분석 모듈(23) 및 머신러닝 모듈(24) 중 하나 이상이 서로 물리적으로 구분되는 별개의 장치로 구현되는 것도 가능하다. Additionally, each element constituting the cognitive ability development system 2 is not necessarily intended to refer to a separate device that is physically distinct from each other. In other words, the content provision module 21, input module 22, analysis module 23, and machine learning module 24 in FIG. 1 are the hardware constituting the cognitive ability development system 2 and the operations performed by the hardware. It is only functionally divided according to the function, and each part does not necessarily have to be provided independently from each other. Of course, depending on the embodiment, it is possible for one or more of the content provision module 21, the input module 22, the analysis module 23, and the machine learning module 24 to be implemented as separate devices that are physically separated from each other. .
콘텐츠 제공 모듈(21)은 인지능력 개발을 위한 콘텐츠를 사용자에게 제공하도록 구성된다. 예를 들어, 콘텐츠 제공 모듈(21)은 사용자 장치(1)에 구비된 디스플레이 수단 및 소리 출력 수단 등을 이용하여 콘텐츠를 사용자에게 제시할 수 있도록 사용자 장치(1)에 콘텐츠를 전송하기 위한 부분일 수 있다. 이상의 동작을 위하여, 인지능력 개발 시스템(2)은 유선 및/또는 무선 네트워크를 통하여 사용자 장치(1)와 통신할 수 있다. 본 명세서에서 유선 및/또는 무선 네트워크를 통한 통신 방법은 객체와 객체가 네트워킹 할 수 있는 모든 통신 방법을 포함할 수 있으며, 유선 통신, 무선 통신, 3G, 4G, 혹은 그 이외의 방법으로 제한되지 않는다.The content provision module 21 is configured to provide users with content for cognitive ability development. For example, the content providing module 21 is a part for transmitting content to the user device 1 so that the content can be presented to the user using a display means and a sound output means provided in the user device 1. You can. For the above operations, the cognitive development system 2 may communicate with the user device 1 via a wired and/or wireless network. In this specification, communication methods through wired and/or wireless networks may include objects and all communication methods through which objects can be networked, and are not limited to wired communication, wireless communication, 3G, 4G, or other methods. .
도 1에서 사용자 장치(1)는 태블릿(tablet) 컴퓨터의 형태로 도시되었으나, 이는 예시적인 것으로서, 사용자 장치(1)는 스마트폰(smartphone) 등 모바일 컴퓨팅 장치, 노트북 컴퓨터, 개인용 컴퓨터(Personal Computer; PC) 등 임의의 컴퓨팅 장치로 구성될 수 있다. In FIG. 1, the user device 1 is shown in the form of a tablet computer, but this is an example. The user device 1 may be a mobile computing device such as a smartphone, a laptop computer, or a personal computer. It may be composed of any computing device such as a PC).
일 실시예에서, 인지능력 개발 시스템(2)은 적어도 부분적으로 사용자 장치(1)상에서 실행되는 애플리케이션(또는, 앱(app))과 통신함으로써 애플리케이션의 기능 수행을 가능하게 하는 애플리케이션 서버의 기능을 수행할 수 있다. 또한, 인지능력 개발 시스템(2)은 적어도 부분적으로 사용자 장치(1)상에서 실행되는 웹 브라우저(web browser) 등을 통하여 접속 가능한 소정의 웹 페이지(web page)를 제공하는 웹 서버(web server)의 기능을 수행할 수도 있다. In one embodiment, the cognitive development system 2 performs, at least in part, the function of an application server that allows the application to perform its functions by communicating with an application (or app) running on the user device 1. can do. In addition, the cognitive ability development system 2 is, at least in part, a web server that provides a web page accessible through a web browser running on the user device 1. It can also perform a function.
그러나 이는 예시적인 것으로서, 다른 실시예에서는 인지능력 개발 시스템(2) 자체가 사용자가 사용하는 장치의 형태로 구성될 수 있으며, 이 경우 사용자는 인지능력 개발 시스템(2)을 통해 직접 콘텐츠를 이용할 수 있으므로 도 1에 도시된 사용자 장치(1)는 생략될 수도 있다. However, this is an example, and in other embodiments, the cognitive ability development system 2 itself may be configured in the form of a device used by the user, in which case the user can directly use the content through the cognitive ability development system 2. Therefore, the user device 1 shown in FIG. 1 may be omitted.
본 발명의 실시예들에서, 콘텐츠 제공 모듈(21)을 통하여 제시되는 인지능력 개발 콘텐츠는 복수 개의 인지 영역에 관련된 것일 수 있다. 본 명세서에서 복수 개의 인지 영역이란, 치매 등으로 인한 인지능력의 저하를 방지하거나 저하 속도를 늦추는 등 인지능력을 개선하기 위하여 서로 상이한 관점에서 사용자의 인지능력 개선을 위한 활동을 유도하기 위한 다각적인 분야들 의미한다. In embodiments of the present invention, cognitive ability development content presented through the content provision module 21 may be related to a plurality of cognitive areas. In this specification, a plurality of cognitive domains refers to a multifaceted field for encouraging users to engage in activities to improve cognitive abilities from different perspectives in order to improve cognitive abilities, such as preventing or slowing down the decline in cognitive abilities due to dementia, etc. means.
예를 들어, 일 실시예에서 인지능력 개발 시스템(2)은 인지능력의 개선을 위하여 관리가 필요한 내용들을 혈관질환 관리, 인지 훈련, 운동, 영양 관리 및 동기 강화의 5개의 인지 영역으로 구분할 수 있다. 이때, 인지능력 개발 시스템(2)에 의해 제공되는 인지능력 개발 콘텐츠는 전술한 5개의 인지 영역 중 하나 또는 복수의 인지 영역의 능력 개선을 목표로 하며, 특정한 인지 영역의 강화를 목표로 개발된 것일 수 있으며 이를 본 명세서에서는 인지능력 개발 콘텐츠의 특성으로 지칭한다. 예를 들어, 인지능력 개발 콘텐츠는 특정 분야의 능력 강화를 목적으로 하는 게임의 형식을 가질 수 있다. For example, in one embodiment, the cognitive ability development system 2 may divide content that needs to be managed to improve cognitive ability into five cognitive areas: vascular disease management, cognitive training, exercise, nutritional management, and motivation enhancement. . At this time, the cognitive ability development content provided by the cognitive ability development system (2) aims to improve the ability of one or multiple cognitive domains among the five cognitive domains described above, and is developed with the goal of strengthening a specific cognitive domain. This can be done, and in this specification, this is referred to as the characteristics of cognitive ability development content. For example, cognitive ability development content may take the form of a game aimed at strengthening abilities in a specific field.
입력 모듈(22)은, 콘텐츠 제공 모듈(21)을 통해 사용자에게 제공된 콘텐츠에 대한 사용자의 학습 데이터를 사용자 장치(1)로부터 수신하도록 구성된다. 또는, 인지능력 개발 시스템(2)이 사용자의 개인용 컴퓨터 등 사용자 장치 형태로 구현되는 경우, 입력 모듈(22)은 키보드나 터치스크린 등의 입력 수단(미도시)을 통해 학습 데이터를 입력받을 수 있다. The input module 22 is configured to receive the user's learning data about content provided to the user through the content providing module 21 from the user device 1 . Alternatively, when the cognitive ability development system 2 is implemented in the form of a user device such as a user's personal computer, the input module 22 can receive learning data through an input means (not shown) such as a keyboard or touch screen. .
분석 모듈(23)은, 입력 모듈(22)에 입력된 학습 데이터를 분석하여 복수 개의 인지 영역별 성과 정보를 산출하도록 구성된다. 예를 들어, 분석 모듈(23)은 각 인지 영역의 콘텐츠(예컨대, 게임)에 대한 인지 점수, 각 영역의 콘텐츠에 대한 소모 시간, 영역별 진행율 및/또는 참여율 등을 토대로 성과 정보를 결정할 수 있다. The analysis module 23 is configured to analyze the learning data input to the input module 22 and calculate performance information for a plurality of cognitive areas. For example, the analysis module 23 may determine performance information based on cognitive scores for content (e.g., games) in each cognitive domain, time spent on content in each domain, progress rate and/or participation rate for each domain, etc. .
이를 위하여, 일 실시예에서 분석 모듈(23)은 각 영역에 대한 사용자의 학습 결과인 인지 점수를 분석하는 결과 분석부(231) 및/또는 각 영역의 콘텐츠의 목표 달성에 대해 소요된 시간과 콘텐츠에 대한 사용자의 응답 시간 등 소모 시간에 대한 정보를 분석하는 과정 분석부(232)를 포함할 수 있다.To this end, in one embodiment, the analysis module 23 includes a result analysis unit 231 that analyzes the cognitive score, which is the user's learning result for each area, and/or the time and content spent on achieving the goal of the content in each area. It may include a process analysis unit 232 that analyzes information on consumption time, such as the user's response time.
또한 일 실시예에서, 분석 모듈(23)은 프로파일링(profiling) 부(233)를 더 포함한다. 본 실시예에서 사용자는 입력 모듈(22)을 통하여 자신의 개인 정보, 예컨대, 성별, 나이, 거주환경(세대 구성원 수 등), 과거의 치매 진단 여부 등 병력과 같은 정보를 입력할 수 있다. 프로파일링부(233)는, 이러한 개인 정보를 토대로, 학습 데이터로부터 성과 정보를 도출하기 위한 기준값을 결정하도록 구성된다. 이때 기준값이란, 인지 점수나 소모 시간을 성과값으로 변환하기 위한 구간에 대한 정보, 인지 점수나 소모 시간에 적용되기 위한 가중치 정보, 또는 사용자의 성별/나이/거주환경/병력 등이 성과값에 영향을 미치도록 하는 다른 임의의 방식의 조정값을 지칭할 수 있다. Also in one embodiment, the analysis module 23 further includes a profiling unit 233. In this embodiment, the user can input his/her personal information, such as gender, age, living environment (number of household members, etc.), and medical history, such as whether or not he or she has been diagnosed with dementia in the past, through the input module 22. The profiling unit 233 is configured to determine a reference value for deriving performance information from learning data based on such personal information. At this time, the standard value is information about the section for converting the recognition score or consumption time into a performance value, weight information to be applied to the recognition score or consumption time, or the user's gender/age/living environment/medical history, etc. affect the performance value. It can refer to any other arbitrary way of adjusting the value to affect .
머신러닝 모듈(24)은, 사전에 입력된 훈련 데이터 셋(training data set)을 이용하여 머신러닝에 의한 학습을 수행한 결과를 저장하고, 있으며, 분석 모듈(23)에 의해 얻어진 성과 정보에 대해 머신러닝의 학습 결과를 적용함으로써 사용자 맞춤형 콘텐츠의 특성을 결정하는 기능을 한다. The machine learning module 24 stores the results of learning by machine learning using a pre-entered training data set, and reports performance information obtained by the analysis module 23. It functions to determine the characteristics of user-customized content by applying the learning results of machine learning.
이상의 동작을 위하여, 머신러닝 모듈(240)은 훈련 데이터 셋을 이용한 머신 러닝을 수행하는 머신러닝 모델 학습부(241)와, 학습 결과를 기반으로 사용자의 성과 정보에 대한 맞춤형 콘텐츠를 판정하는 머신러닝 모델 판정부(242)를 포함할 수 있다. For the above operation, the machine learning module 240 includes a machine learning model learning unit 241 that performs machine learning using a training data set, and a machine learning unit that determines customized content for the user's performance information based on the learning results. It may include a model determination unit 242.
일 실시예에서, 입력 모듈(22)은 훈련 데이터 셋을 입력받고 이를 머신러닝을 위하여 머신러닝 모델 학습부(241)에 입력하는 기능을 더 수행할 수 있다. 이때, 입력 모듈(22)은 데이터 라벨링(labeling)부(222)를 포함할 수 있다. 데이터 라벨링부(222)는, 훈련 데이터 셋에 포함된 데이터들에 대하여 해당 데이터를 제공한 사용자의 인지능력 개선에 적합한 것으로 전문가나 임상 결과 등에 의하여 결정된 맞춤형 콘텐츠 정보(즉, 정답)를 이용하여 훈련 데이터 셋의 데이터들을 라벨링하고, 라벨링된 데이터를 머신러닝 모델 학습부(241)에 제공할 수 있다. In one embodiment, the input module 22 may further perform the function of receiving a training data set and inputting it to the machine learning model learning unit 241 for machine learning. At this time, the input module 22 may include a data labeling unit 222. The data labeling unit 222 trains the data included in the training data set using customized content information (i.e., correct answer) determined by experts or clinical results as suitable for improving the cognitive ability of the user who provided the data. Data in the data set may be labeled, and the labeled data may be provided to the machine learning model learning unit 241.
또한, 입력 모듈(22)은 개인 정보 처리부(223)를 더 포함할 수도 있다. 개인 정보 처리부(223)는, 머신러닝 모델 학습부(241)가 훈련 데이터 셋을 이용한 학습을 수행함에 있어서, 각 사용자의 민감한 개인 정보가 노출되지 않도록 개인 정보에 대한 마스킹(masking)을 수행할 수 있다. 이때 마스킹이란, 민감한 정보 자체를 훈련 데이터 셋으로부터 삭제하는 것을 의미할 수도 있으며, 또는 해당 정보를 삭제하지 않더라도 데이터 레코드들과 이를 제공한 개인을 매칭(matching)시키는 것이 불가능하도록 데이터를 분할, 조합 또는 재구성하는 것을 지칭할 수 있다. Additionally, the input module 22 may further include a personal information processing unit 223. The personal information processing unit 223 may perform masking on personal information so that sensitive personal information of each user is not exposed when the machine learning model learning unit 241 performs learning using the training data set. there is. In this case, masking may mean deleting the sensitive information itself from the training data set, or dividing, combining, or dividing the data so that it is impossible to match the data records with the individual who provided them even if the information is not deleted. It can refer to reconstruction.
머신러닝 모듈(24)의 머신러닝 모델 판정부(242)는, 머신러닝 모델 학습부(241)에 의하여 선행 누적된 데이터를 바탕으로 사용자의 성과 정보에 상응하는 사용자의 유형을 판정하고, 해당 사용자에게 적합한 맞춤형 콘텐츠의 특성을 결정할 수 있다. 예를 들어, 사용자의 유형을 판정한다는 것은 복수의 인지 영역에서 사용자가 보여준 성과의 패턴을 기준으로 사용자들을 분류(classification)하거나 군집화(clustering)하는 것을 의미할 수 있으며, 머신러닝 모델 판정부(242)는 이러한 유형을 이용하여 해당 사용자 분류 또는 군집의 인지능력 개선에 적합한 맞춤형 콘텐츠를 결정할 수 있다. The machine learning model determination unit 242 of the machine learning module 24 determines the type of user corresponding to the user's performance information based on the data previously accumulated by the machine learning model learning unit 241, and determines the type of user corresponding to the user's performance information. You can determine the characteristics of customized content that is suitable for you. For example, determining the type of user may mean classifying or clustering users based on patterns of performance shown by the user in multiple cognitive domains, and the machine learning model determination unit 242 ) can use these types to determine customized content suitable for improving the cognitive abilities of the corresponding user category or group.
도 2는 일 실시예에 따른 인지능력 개발 방법의 각 단계를 도시하는 순서도이다. 설명의 편의를 위하여, 도 1 및 도 2를 참조하여 본 실시예에 따른 인지능력 개발 방법에 대하여 설명한다. Figure 2 is a flowchart showing each step of a cognitive ability development method according to an embodiment. For convenience of explanation, the cognitive ability development method according to this embodiment will be described with reference to FIGS. 1 and 2.
도 2를 참조하면, 먼저 머신러닝 기반의 학습 과정으로서 인지능력 개발 시스템(2)의 입력 모듈(22)은 훈련 데이터 셋을 수신할 수 있다(S11). 훈련 데이터 셋은 관리자의 사용자 장치로부터 입력 모듈(22)에 입력 또는 전송되거나, 또는 외부의 서버(미도시)로부터 수신될 수 있다. Referring to FIG. 2, first, as a machine learning-based learning process, the input module 22 of the cognitive ability development system 2 can receive a training data set (S11). The training data set may be input or transmitted to the input module 22 from the administrator's user device, or may be received from an external server (not shown).
훈련 데이터 셋을 이용하여 머신러닝을 수행하기 위한 전처리 과정으로서, 입력 모듈(22)의 데이터 라벨링부(222)는 훈련 데이터 셋의 각 데이터들에 의하여 전문가나 임상 등을 토대로 결정된 맞춤형 콘텐츠 정보를 이용하여 데이터들을 라벨링할 수 있다(S12). 또한, 입력 모듈(22)의 개인 정보 처리부(223)는 훈련 데이터 셋의 데이터들로부터 민감한 정보를 제거하거나 민감한 정보가 데이터 제공자 개인과 연관되지 않도록 하는 마스킹을 수행할 수도 있다(S12). As a preprocessing process for performing machine learning using the training data set, the data labeling unit 222 of the input module 22 uses customized content information determined based on expert or clinical information based on each data in the training data set. Thus, the data can be labeled (S12). Additionally, the personal information processing unit 223 of the input module 22 may remove sensitive information from data in the training data set or perform masking to prevent sensitive information from being associated with the individual data provider (S12).
인지능력 개발 시스템(2)의 머신러닝 모듈(24)은, 라벨링 및 마스킹 등이 완료된 데이터를 입력받고 이를 이용하여 학습 데이터로부터 맞춤형 콘텐츠를 결정하기 위한 학습 결과를 생성할 수 있다(S13). 예를 들어, 학습 결과란 학습 데이터의 패턴을 기반으로 사용자의 유형을 판정하고, 해당 유형의 사용자에게 적용되기에 적합한 콘텐츠의 특성, 예컨대, 콘텐츠에 상응하는 인지 영역의 종류 및 개수 등을 결정하기 위한 것일 수 있다. The machine learning module 24 of the cognitive ability development system 2 can receive data for which labeling and masking have been completed and use this to generate learning results for determining customized content from the learning data (S13). For example, the learning result refers to determining the type of user based on the pattern of the learning data and determining the characteristics of the content suitable to be applied to that type of user, such as the type and number of cognitive areas corresponding to the content. It may be for.
이상에서 설명한 머신러닝에 의한 학습 과정(S11-S13)은, 머신러닝 모듈(24)의 머신러닝 모델 학습부(241)에 의하여 수행될 수 있다. 그러나 다른 실시예에서, 머신러닝 모듈(24)은 외부의 장치나 서버 등으로부터 머신러닝 결과에 해당하는 알고리즘 및 파라미터 등을 수신하고 이를 기반으로 동작할 수도 있으며, 이 경우 전술한 학습 과정(S11-S13)은 생략될 수 있다. The machine learning learning process (S11-S13) described above may be performed by the machine learning model learning unit 241 of the machine learning module 24. However, in another embodiment, the machine learning module 24 may receive algorithms and parameters corresponding to machine learning results from an external device or server and operate based on them. In this case, the above-described learning process (S11- S13) may be omitted.
머신러닝에 의한 학습 결과를 기반으로 대상 사용자에게 맞춤형 콘텐츠를 제공하기 위하여, 먼저 인지능력 개발 시스템(2)의 콘텐츠 제공 모듈(21)은 복수 개의 인지 영역별 특성을 갖는 인지능력 개발 콘텐츠를 사용자에게 제공할 수 있다(S21). In order to provide customized content to target users based on learning results by machine learning, first, the content provision module 21 of the cognitive ability development system 2 provides cognitive ability development content with characteristics of a plurality of cognitive areas to the user. Can be provided (S21).
다음으로, 인지능력 개발 시스템(2)의 입력 모듈(22)은 제공된 콘텐츠에 대한 사용자의 학습 데이터를 수신할 수 있다(S22). 예를 들어, 학습 데이터란 예컨대 게임과 같은 형식을 가지는 콘텐츠를 통하여 제공되는 과제를 사용자가 해결함으로써 달성한 인지 점수나, 해당 과제의 달성에 사용자가 소모한 시간, 콘텐츠 내의 일련의 과제들에 대한 사용자의 진행율이나 참여율 등을 포함할 수 있다. Next, the input module 22 of the cognitive ability development system 2 may receive the user's learning data about the provided content (S22). For example, learning data refers to the cognitive score achieved by a user solving a task provided through content in a game-like format, the time the user spends on completing the task, or a series of tasks within the content. It may include the user's progress rate or participation rate.
일 실시예에서, 입력 모듈(22)는 학습 데이터의 수신과 동시에 또는 학습 데이터의 수신 전 또는 후에 콘텐츠에 참여하는 사용자의 개인 정보를 더 수신할 수도 있다(S23). 예를 들어, 개인 정보는 사용자의 성별/나이/거주환경/병력 등의 정보를 포함할 수 있으나, 이에 한정되는 것은 아니다. In one embodiment, the input module 22 may further receive personal information of a user participating in the content simultaneously with receiving the learning data or before or after receiving the learning data (S23). For example, personal information may include, but is not limited to, information such as the user's gender/age/living environment/medical history.
인지능력 개발 시스템(2)의 분석 모듈(23)은, 사용자의 학습 데이터로부터 해당 학습 데이터가 나타내는 사용자의 유형을 판정하기에 적합한 성과 정보를 도출할 수 있다(S24). 예를 들어, 성과 정보는 사용자가 콘텐츠에 대하여 달성한 인지 점수, 소모 시간, 진행율, 참여율 등을 지칭하는 것이거나, 또는 소정의 기준(등급, 문턱값, 가중치 등)에 의하여 이러한 정보를 성과값으로 변환한 것일 수 있다. The analysis module 23 of the cognitive ability development system 2 may derive performance information suitable for determining the type of user indicated by the learning data from the user's learning data (S24). For example, performance information refers to the recognition score, time spent, progress rate, participation rate, etc. achieved by the user for the content, or converts this information into a performance value based on certain criteria (grade, threshold, weight, etc.) It may have been converted to .
인지능력 개발 시스템(2)의 머신러닝 모듈(24)은, 분석 모듈(23)에 의하여 도출된 성과 정보에 기초하여 사용자 맞춤형 콘텐츠를 결정할 수 있다(S25). 이는, 머신러닝 모델을 통해 결정된 사용자의 유형을 토대로, 해당 사용자에게 다음에 제시되기에 적합한 인지능력 개발 콘텐츠의 특성(종류, 난이도, 제한 시간 등)을 결정하는 것을 의미할 수 있으며, 이에 대해서는 상세히 후술한다. The machine learning module 24 of the cognitive ability development system 2 can determine user-customized content based on the performance information derived by the analysis module 23 (S25). This may mean determining the characteristics (type, difficulty, time limit, etc.) of cognitive ability development content suitable to be presented next to that user based on the type of user determined through the machine learning model, which is described in detail. This will be described later.
도 3은 일 실시예에 따른 인지능력 개발 방법에 의한 데이터 처리 과정을 설명하기 위한 개념도이다. Figure 3 is a conceptual diagram illustrating a data processing process by a cognitive ability development method according to an embodiment.
도 3을 참조하면, 본 발명의 실시예들에 따른 인지능력 개발 방법에서는 사용자의 학습 데이터로부터 사용 이력, 진행율, 인지 점수 및/또는 참여율 등의 정보를 도출하고, 이를 성과 정보로 이용하여 사용자에게 제공되기 위한 맞춤형 콘텐츠를 결정할 수 있다. Referring to FIG. 3, in the cognitive ability development method according to embodiments of the present invention, information such as usage history, progress rate, recognition score, and/or participation rate is derived from the user's learning data, and this is used as performance information to provide the user with information such as use history, progress rate, recognition score, and/or participation rate. You can decide on customized content to be provided.
일 예로, 하기에서는 상술한 인지능력 개발 시스템(2)에 기초하여 사용자를 분석하여 콘텐츠를 제공하는 경우에 있어서 사용자 시점을 트래킹하여 고도화된 디지털 치료제를 제공하는 방법에 대해 서술한다. 일 예로, 디지털 치료제는 소프트웨어 의료기기일 수 있다. 보다 상세하게는, 상술한 인지능력 개발 시스템(2)에 기초하여 사용자 인지 상태 정보를 분석하고, 분석된 사용자 인지 상태 정보에 기초하여 사용자에게 콘텐츠를 제공하여 사용자 인지 능력을 향상시킴으로써 질병(e.g. 치매)의 예방, 관리 및 치료를 목적으로 하는 소프트웨어 의료기기일 수 있다. 일 예로, 디지털 치료제는 사용자의 데이터를 수집, 관리 및 저장하여 환자 맞춤형 분석과 치료를 가능하게 하는 소프트웨어 의료기기일 수 있다. 일 예로, 디지털 치료제는 상술한 바와 같이 인지능력 개발 시스템(2)에 기초하여 사용자를 분석하여 콘텐츠를 제공함으로써 사용자의 인지능력을 향상시키는 것을 의미할 수 있으며, 특정 실시예로 한정되지 않는다. 하기에서는 설명의 편의를 위해 인지능력 개발 시스템(2)에 기초하여 수행되는 디지털 치료제를 서술하지만, 이에 한정되는 것은 아닐 수 있다.As an example, the following describes a method of providing advanced digital therapeutics by tracking the user's viewpoint when analyzing the user and providing content based on the cognitive ability development system 2 described above. As an example, a digital therapeutic may be a software medical device. More specifically, the user's cognitive state information is analyzed based on the above-described cognitive ability development system (2), and content is provided to the user based on the analyzed user's cognitive state information to improve the user's cognitive ability to prevent disease (e.g. dementia). ) may be a software medical device aimed at the prevention, management, and treatment of As an example, a digital therapeutic may be a software medical device that collects, manages, and stores user data to enable customized analysis and treatment for patients. As an example, a digital therapeutic may mean improving a user's cognitive ability by analyzing the user and providing content based on the cognitive ability development system 2 as described above, and is not limited to a specific embodiment. Below, for convenience of explanation, a digital treatment performed based on the cognitive ability development system 2 is described, but may not be limited thereto.
일 예로, 인지능력 개발 시스템(2)은 사용자 시점 트래킹을 이용하여 사용자 정보를 분석하여 사용자 인지 상태를 판단할 수 있다. 이때, 사용자 시점 트래킹을 위해서 카메라가 이용될 수 있다. 구체적인 일 예로, 카메라는 사용자 장치(1)에 장착되어 콘텐츠를 제공받는 사용자의 시점(또는 시선), 얼굴, 손 및 그 밖의 신체를 트래킹할 수 있다. 일 예로, 카메라는 윈도우 OS 기반 태블릿 또는 데스크탑에 장착할 수 있는 웹캠으로써 사용자 시점(또는 시선), 얼굴, 손바닥 및 그 밖의 신체의 좌표를 추출할 수 있다. 이때, 인지능력 개발 시스템(2)은 카메라를 통해 추출된 좌표 값을 지속적으로 트래킹하여 사용자 인지 상태를 파악할 수 있으며, 이를 통해 디지털 치료제로써 인지능력 개발 시스템(2)이 사용자 상태를 정확하게 인지하도록 할 수 있다.As an example, the cognitive ability development system 2 may determine the user's cognitive state by analyzing user information using user viewpoint tracking. At this time, a camera may be used to track the user's viewpoint. As a specific example, a camera may be mounted on the user device 1 and track the viewpoint (or gaze), face, hands, and other body of the user who receives content. For example, the camera is a webcam that can be mounted on a Windows OS-based tablet or desktop and can extract the user's viewpoint (or gaze), face, palm, and other coordinates of the body. At this time, the cognitive ability development system (2) can determine the user's cognitive state by continuously tracking the coordinate values extracted through the camera, and through this, the cognitive ability development system (2) as a digital therapeutic agent can accurately recognize the user's state. You can.
구체적인 일 예로, 도 4는 일 실시예에 따른 사용자 시점을 트래킹하는 방법을 나타낸 도면이다. 도 4를 참조하면, 카메라(3)는 상술한 태블릿(1) 및 그 밖의 디바이스에 설치될 수 있다. 일 예로, 카메라(3)는 사용자에게 콘텐츠를 제공하는 디바이스의 상단에 부착되거나 디바이스와 결합된 형태일 수 있으며, 특정 실시예로 한정되지 않는다. 여기서, 카메라(3)는 상술한 바와 같이 사용자의 손(41), 얼굴(42) 및 시점(또는 시선, 43) 중 적어도 어느 하나 이상을 추출하여 좌표 값을 도출할 수 있다. 이때, 인지능력 개발 시스템(2)는 카메라(3)를 통해 추출된 좌표 값의 변화를 트래킹하여 사용자 인지 상태를 판단할 수 있다. 일 예로, 카메라(3)가 사용자의 손(41)을 트래킹하는 경우, 사용자의 손(41)의 중심 지점을 좌표 값의 기준점으로 설정하고, 이에 기초하여 트래킹을 수행할 수 있다. 또 다른 일 예로, 사용자의 손(41) 각 지점의 좌표 값을 도출하고, 도출된 좌표 값들의 평균을 통해 사용자 손(41)의 트래킹을 수행할 수 있다. 또 다른 일 예로, 카메라(3)가 얼굴(42)을 트래킹하는 경우, 얼굴(42)의 중심 지점을 좌표 값의 기준점으로 설정하고, 이에 기초하여 트래킹을 수행할 수 있다. 또 다른 일 예로, 얼굴(42) 각 지점의 좌표 값을 도출하고, 도출된 좌표 값들의 평균을 통해 얼굴(42)의 트래킹을 수행할 수 있다. 또 다른 일 예로, 카메라(3)가 시점(43)을 트래킹하는 경우, 사용자 눈의 중심 지점을 좌표 값의 기준점으로 설정하고, 이에 기초하여 트래킹을 수행할 수 있다. 또 다른 일 예로, 사용자 눈의 각 지점의 좌표 값을 도출하고, 도출된 좌표 값들의 평균을 통해 사용자 눈의 트래킹을 수행할 수 있다.As a specific example, FIG. 4 is a diagram showing a method for tracking a user's viewpoint according to an embodiment. Referring to FIG. 4, the camera 3 can be installed in the tablet 1 and other devices described above. As an example, the camera 3 may be attached to the top of a device that provides content to a user or may be combined with the device, and is not limited to a specific embodiment. Here, as described above, the camera 3 can derive coordinate values by extracting at least one of the user's hand 41, face 42, and viewpoint (or gaze 43). At this time, the cognitive ability development system 2 can determine the user's cognitive state by tracking changes in coordinate values extracted through the camera 3. For example, when the camera 3 tracks the user's hand 41, the center point of the user's hand 41 may be set as a reference point for the coordinate value, and tracking may be performed based on this. As another example, coordinate values of each point of the user's hand 41 may be derived, and tracking of the user's hand 41 may be performed through the average of the derived coordinate values. As another example, when the camera 3 tracks the face 42, the center point of the face 42 may be set as a reference point for the coordinate value, and tracking may be performed based on this. As another example, coordinate values of each point of the face 42 may be derived, and tracking of the face 42 may be performed by averaging the derived coordinate values. As another example, when the camera 3 tracks the viewpoint 43, the center point of the user's eyes may be set as a reference point for the coordinate value, and tracking may be performed based on this. As another example, coordinate values of each point of the user's eyes can be derived, and tracking of the user's eyes can be performed by averaging the derived coordinate values.
상술한 바를 통해, 인지능력 개발 시스템은 사용자의 손(41), 얼굴(42), 시점(43) 및 그 밖의 신체를 트래킹할 수 있으며, 이를 통해 사용자 상태를 파악하여 사용자에 맞는 콘텐츠를 제공함으로써 사용자 인지능력 향상을 효율적으로 수행할 수 있다.Through the above, the cognitive ability development system can track the user's hands (41), face (42), viewpoint (43), and other bodies, and through this, determine the user's state and provide content tailored to the user. User cognitive ability can be improved efficiently.
구체적인 일 예로, 도 5a 내지 도 5d는 일 실시예에 따라 사용자 시점 트래킹에 기초하여 사용자 정보를 추출하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다. 도 5a를 참조하면, 인지능력 개발 시스템(2)은 사용자 인지 상태 정보에 기초하여 콘텐츠를 사용자에게 제공할 수 있다. 일 예로, 인지능력 개발 시스템(2)의 콘텐츠 제공 모듈(21)을 통해 사용자에게 콘텐츠가 제공될 수 있다. 이때, 사용자는 인지능력 개발 시스템(2)에 의해 제공되는 콘텐츠에 기초하여 학습을 수행할 수 있으며, 이를 통해 인지능력 개발 시스템(2)은 사용자 인지상태를 확인할 수 있다. 구체적인 일 예로, 인지능력 개발 시스템(2)의 입력 모듈(22)은 콘텐츠 제공 모듈(21)을 통해 사용자에게 제공된 콘텐츠에 대한 사용자의 학습 데이터를 사용자 장치(1)로부터 수신하도록 구성될 수 있다. 일 예로, 인지능력 개발 시스템(2)이 사용자의 개인용 컴퓨터 등 사용자 장치 형태로 구현되는 경우, 입력 모듈(22)은 키보드나 터치스크린 등의 입력 수단(미도시)을 통해 학습 데이터를 입력받을 수 있다. As a specific example, FIGS. 5A to 5D are diagrams illustrating a method of extracting user information and upgrading a digital therapeutic product based on user viewpoint tracking according to an embodiment. Referring to FIG. 5A, the cognitive ability development system 2 may provide content to the user based on user cognitive state information. As an example, content may be provided to the user through the content provision module 21 of the cognitive ability development system 2. At this time, the user can perform learning based on the content provided by the cognitive ability development system 2, and through this, the cognitive ability development system 2 can check the user's cognitive state. As a specific example, the input module 22 of the cognitive ability development system 2 may be configured to receive user learning data about content provided to the user through the content provision module 21 from the user device 1. For example, when the cognitive ability development system 2 is implemented in the form of a user device such as a user's personal computer, the input module 22 can receive learning data through an input means (not shown) such as a keyboard or touch screen. there is.
이때, 분석 모듈(23)은 입력 모듈(22)에 입력된 학습 데이터를 분석하여 사용자 인지 상태 정보를 획득할 수 있다. 일 예로, 사용자 인지 상태 정보는 복수 개의 인지 영역별 성과 정보를 산출하도록 구성될 수 있다. 분석 모듈(23)은 각 인지 영역의 콘텐츠(e.g. 게임)에 대한 인지 점수, 각 영역의 콘텐츠에 대한 소모 시간, 영역별 진행율 및 참여율 중 적어도 어느 하나에 기초하여 성과 정보를 결정할 수 있으며, 이를 통해 사용자 인지상태 정보를 도출할 수 있다.At this time, the analysis module 23 may acquire user cognitive state information by analyzing the learning data input to the input module 22. As an example, user cognitive state information may be configured to calculate performance information for a plurality of cognitive areas. The analysis module 23 may determine performance information based on at least one of the cognitive score for the content (e.g. game) of each cognitive domain, the time consumed for the content of each domain, and the progress rate and participation rate for each domain, through which User cognitive state information can be derived.
구체적인 일 예로, 도 5a를 참조하면, 인지능력 개발 시스템(2)은 콘텐츠로써 사용자에게 질문 정보(501)와 답변 정보(502)를 제공할 수 있다. 일 예로, 사용자는 질문 정보(501)에 기초하여 학습 데이터로써 답 정보를 도출하고, 이를 답변 정보(502)에 입력할 수 있다. 또한, 일 예로, 인지능력 개발 시스템(2)은 학습을 고려하여 관련 콘텐츠(51, 52, 53, 54, 55, 56, 57)를 제공할 수 있다. 이때, 사용자가 관련 콘텐츠(51, 52, 53, 54, 55, 56, 57)를 답변 정보(502)에 입력함으로써 학습 데이터가 생성될 수 있으며, 인지능력 개발 시스템(2)은 생성된 학습 데이터를 획득할 수 있다. 구체적인 일 예로, 도 5a에서 질문에 대한 답을 입력하기 위해 자음/모음이 과일 모양 콘텐츠로써 사용자에게 제공될 수 있다. 이때, 사용자는 답 정보에 대응되는 자음 또는 모음이 포함됨 과일을 선택함으로써 답변 정보(502)를 완성할 수 있으며, 이를 통해 학습 데이터가 생성될 수 있다. 이때, 일 예로, 학습 데이터는 사용자가 답변 정보(502)를 기 설정된 값에 대응되게 입력하는지 여부에 대한 정보를 포함할 수 있다. 즉, 사용자가 답을 맞췄는지 여부에 대한 정보를 획득할 수 있다. As a specific example, referring to FIG. 5A, the cognitive ability development system 2 may provide question information 501 and answer information 502 to the user as content. As an example, the user can derive answer information as learning data based on the question information 501 and input it into the answer information 502. Additionally, as an example, the cognitive ability development system 2 may provide related content 51, 52, 53, 54, 55, 56, and 57 in consideration of learning. At this time, learning data can be generated by the user entering related content (51, 52, 53, 54, 55, 56, 57) into the answer information (502), and the cognitive ability development system (2) generates the generated learning data. can be obtained. As a specific example, in FIG. 5A, consonants/vowels may be provided to the user as fruit-shaped content to input an answer to a question. At this time, the user can complete the answer information 502 by selecting a fruit containing a consonant or vowel corresponding to the answer information, and through this, learning data can be generated. At this time, as an example, the learning data may include information about whether the user inputs the answer information 502 corresponding to a preset value. In other words, information about whether the user answered correctly can be obtained.
또 다른 일 예로, 학습 데이터는 사용자가 답변 정보(502)에 답을 입력하는 시간 정보를 더 포함할 수 있다. 일 예로, 사용자의 답변 정보(502) 입력 시간이 짧으면 사용자 인지상태가 높은 등급으로 판단될 수 있고, 입력 시간이 길면 사용자 인지상태가 낮은 등급으로 판단될 수 있다. 또 다른 일 예로, 인지능력 개발 시스템(2)은 사용자 시점 정보를 더 트래킹하여 학습 데이터를 생성할 수 있다. 보다 상세하게는, 도 5b를 참조하면, 인지능력 개발 시스템(2)은 상술한 바와 같이, 카메라(3)를 통해 사용자 시점(43)에 대한 좌표 값을 도출하고, 시점(43)을 트래킹할 수 있다. 구체적인 일 예로, 사용자 시점(43)은 질문 정보(501)을 확인한 후 답변 정보(502)를 확인하는 방향으로 이동한 후 답변 정보(502) 입력을 위한 콘텐츠(51, 52, 53, 54, 55, 56, 57)로 이동할 수 있다. 이를 통해, 인지능력 개발 시스템(2)이 사용자가 제공되는 콘텐츠를 어떻게 인지하는지 확인할 수 있다.As another example, the learning data may further include time information at which the user inputs an answer into the answer information 502. For example, if the input time of the user's answer information 502 is short, the user's cognitive state may be judged to be of a high level, and if the input time of the user's answer information 502 is long, the user's cognitive state may be judged to be of a low level. As another example, the cognitive ability development system 2 may generate learning data by further tracking user viewpoint information. More specifically, referring to FIG. 5b, the cognitive ability development system 2 derives the coordinate value for the user viewpoint 43 through the camera 3 and tracks the viewpoint 43, as described above. You can. As a specific example, the user's viewpoint 43 checks the question information 501 and then moves toward checking the answer information 502, and then moves to content 51, 52, 53, 54, 55 for inputting the answer information 502. , 56, 57). Through this, the cognitive ability development system 2 can check how the user perceives the provided content.
일 예로, 도 5c를 참조하면, 사용자가 질문 정보(501) 및 답변 정보(502)에서 트래킹되는 시점(43)이 기 설정된 횟수 이상으로 트래킹됨은 확인할 수 있다. 즉, 사용자가 질문 정보(501) 및 답변 정보(502)를 여러 번 읽는 것을 확인할 수 있으며, 이는 사용자 인지 상태가 낮음 등급임을 확인할 수 있다. 또 다른 일 예로, 사용자의 시점(43)이 답변 정보(502) 입력을 위한 콘텐츠(51, 52, 53, 54, 55, 56, 57)에서 오랜기간 유지되나 답변 정보(502)를 도출하지 못한 경우, 인지능력 개발 시스템(2)은 사용자 인지 상태가 낮은 등급임을 확인할 수 있다. 즉, 인지능력 개발 시스템(2)은 사용자 시점(43) 트래킹을 통해 사용자 인지 상태를 확인할 수 있으며, 이를 통해 사용자 인지 상태를 보다 정확하게 인지할 수 있다. As an example, referring to FIG. 5C, it can be confirmed that the time point 43 at which the user is tracked in the question information 501 and the answer information 502 is tracked more than a preset number of times. That is, it can be confirmed that the user reads the question information 501 and the answer information 502 multiple times, which confirms that the user's cognitive state is at a low level. As another example, the user's viewpoint 43 is maintained for a long period of time in the content 51, 52, 53, 54, 55, 56, 57 for inputting the answer information 502, but the answer information 502 is not derived. In this case, the cognitive ability development system 2 can confirm that the user's cognitive state is at a low level. In other words, the cognitive ability development system 2 can check the user's cognitive state through tracking the user's viewpoint 43, and through this, the user's cognitive state can be recognized more accurately.
일 예로, 도 5c를 참조하면, 인지능력 개발 시스템(2)은 사용자 인지 상태를 판단하기 위한 정보로써 타임라인 정보(503)를 더 디스플레이할 수 있으며, 이에 기초하여 사용자가 답변 정보(502)를 도출하는데 필요한 시간을 인지할 수 있다. As an example, referring to FIG. 5C, the cognitive ability development system 2 may further display timeline information 503 as information for determining the user's cognitive state, and based on this, the user may provide answer information 502. You can recognize the time needed to derive it.
이때, 상술한 사용자 인지 상태 정보에 기초하여 인지능력 개발 시스템(2)은 제공되는 콘텐츠를 제어할 수 있다. 구체적인 일 예로, 도 5d를 참조하면, 인지능력 개발 시스템(2)은 전면 카메라(3)를 통해 사용자의 시점(43)을 트래킹하고, 시점(43)을 기초로 각 단어 조각들(자음/ 모음)을 둘러싸는 모양(바나나, 오이, 양상추 등)이나 색상 및 크기를 조정하거나 힌트를 제공할 수 있다. 일 예로, 도 5d에서 답변 정보(502)에 입력되는 콘텐츠(51, 52, 53, 55)는 사용자 인지 상태가 낮음을 고려하여 크기가 커질 수 있고, 색상도 눈에 잘 띄는 색상으로 변경될 수 있다. 또 다른 일 예로, 사용자의 시선 이동이 빠르고, 답변 정보(502) 입력 시간이 짧은 경우, 사용자 인지 상태 등급이 높은 경우일 수 있다. 이때, 사용자 인지 상태 등급이 높기 때문에 제공되는 콘텐츠(51, 52, 53, 54, 55, 56, 57)의 크기를 줄이고, 색상도 유사하게 함으로써 문제 난이도를 높일 수 있다. 즉, 인지능력 개발 시스템(2)은 사용자 시점(43) 트래킹을 통해 사용자 인지 상태를 확인하고, 확인된 사용자 인지 상태에 맞는 콘텐츠를 제공할 수 있다. At this time, the cognitive ability development system 2 can control the provided content based on the above-described user cognitive state information. As a specific example, referring to FIG. 5D, the cognitive ability development system 2 tracks the user's viewpoint 43 through the front camera 3, and selects each word fragment (consonant/vowel) based on the viewpoint 43. ), you can adjust the surrounding shape (banana, cucumber, lettuce, etc.), color, and size, or provide a hint. For example, in FIG. 5D, the contents 51, 52, 53, and 55 input into the answer information 502 may be increased in size in consideration of the low user cognitive state, and the color may be changed to a color that is easily visible. there is. As another example, when the user's gaze moves quickly, the input time for the answer information 502 is short, and the user's cognitive status level is high. At this time, because the user's cognitive status level is high, the problem difficulty can be increased by reducing the size of the provided content (51, 52, 53, 54, 55, 56, 57) and making the colors similar. In other words, the cognitive ability development system 2 can check the user's cognitive state through tracking the user's viewpoint 43 and provide content suitable for the confirmed user's cognitive state.
보다 구체적인 일 예로, 인지능력 개발 시스템(2)은 사용자 시점(43)을 트래킹해서, 사용자가 질문 정보(501)를 몇 번 읽는지 여부를 카운팅할 수 있다. 일 예로, 사용자가 질문 정보(501)를 기 설정된 횟수 이상 확인하는 경우, 사용자 인지 상태 등급이 낮을 수 있으며, 이러한 경우에 문제 난이도를 낮추기 위해 상술한 바와 같이 콘텐츠 크기를 키우거나 색상을 눈에 띄게 변경할 수 있으며, 이를 통해 효율적인 콘텐츠를 제공할 수 있다. 또 다른 일 예로, 사용자 시점(43)을 트래킹해서 정답 단어 조각을 기 설정된 횟수 이상 지나가는 경우, 인지능력 개발 시스템(2)은 기 설정된 횟수를 카운팅하여 힌트 제공 시점을 결정하거나 정답 단어 조각을 줌인할 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다.As a more specific example, the cognitive ability development system 2 may track the user's viewpoint 43 and count how many times the user reads the question information 501. For example, if the user checks the question information 501 more than a preset number of times, the user's cognitive status rating may be low. In this case, to reduce the difficulty of the question, increase the size of the content or make the color more noticeable as described above. It can be changed, and through this, efficient content can be provided. As another example, when tracking the user's viewpoint 43 and passing the correct word fragment more than a preset number of times, the cognitive ability development system 2 counts the preset number of times to determine when to provide a hint or zoom in on the correct word fragment. It may be, and may not be limited to a specific form.
또 다른 일 예로, 인지능력 개발 시스템(2)은 카메라(3)를 통해 사용자 시점(43)뿐만 아니라 사용자 표정 정보를 도출할 수 있다. 일 예로, 사용자가 눈을 찡그리거나 화면에 인접하게 얼굴을 가까이하는 경우, 인지능력 개발 시스템(2)은 사용자에게 제공하는 콘텐츠의 크기를 키울 수 있다. 즉, 사용자가 콘텐츠를 제대로 인식하지 못하는 경우일 수 있으므로 인지능력 개발 시스템(2)은 콘텐츠의 크기를 크게함으로써 사용자가 효율적으로 콘텐츠를 제공받도록 할 수 있고, 인지능력을 효율적으로 측정하여 고도화를 수행할 수 있다.As another example, the cognitive ability development system 2 can derive the user's viewpoint 43 as well as the user's facial expression information through the camera 3. For example, when the user squints his eyes or moves his face closer to the screen, the cognitive ability development system 2 may increase the size of the content provided to the user. In other words, it may be the case that the user does not properly recognize the content, so the cognitive ability development system (2) can enable the user to receive the content efficiently by increasing the size of the content, and perform advancement by efficiently measuring the cognitive ability. can do.
또한, 일 예로, 도 6a는 일 실시예에 따라 사용자 손을 트래킹하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다. 일 예로, 상술한 카메라(3)는 사용자의 시점(43)뿐만 아니라 사용자의 손(41)을 트래킹할 수 있다. 여기서, 인지능력 개발 시스템(2)은 트래킹한 사용자 손(41)의 좌표와 제공되는 콘텐츠의 화면상의 좌표가 일치함을 디텍트하면 답변 정보(502)를 업데이트할 수 있다. 구체적으로, 도6b를 참조하면, 인지능력 개발 시스템(2)은 사용자 손(41)을 트래킹하여 특정 콘텐츠(55)의 위치에서 특정 콘텐츠(55)가 선택되는 입력을 디텍트할 수 있다. 일 예로, 인지능력 개발 시스템(2)은 사용자 손(41) 각각의 좌표가 기 설정된 거리 이내로 모이게 됨을 디텍트하면 해당 위치에서 특정 콘텐츠(55)가 선택되는 입력을 디텍트할 수 있다. 즉, 사용자 손(41)이 움켜지는 동작이 디텍트될 수 있으며, 이에 기초하여 특정 콘텐츠(55)가 선택될 수 있다. 그 후, 인지능력 개발 시스템(2)은 카메라(3)에 기초하여 선택된 특정 콘텐츠(55)가 제 1 위치에서 제 2 위치로 이동함을 디텍트할 수 있다. 이때, 제 2 위치에서 제공되는 콘텐츠(61)는 특정 콘텐츠(550)를 답변 정보(502)로 제공하기 위한 입력을 제공하는 위치일 수 있다. 즉, 사용자 손(41)이 특정 콘텐츠(550)를 선택하여 믹서기(61)로 이동시키면 인지능력 개발 시스템(2)은 이를 인지하여 답변 정보(502)로 제공할 수 있다. 즉, 인지능력 개발 시스템(2)은 사용자 손(41)을 인지하고, 인지된 손을 트래킹할 수 있다. 이때, 인지능력 개발 시스템(2)은 사용자 손(41) 동작에 기초하여 사용자 인지 상태를 확인할 수 있다. 일 예로, 인지능력 개발 시스템(2)은 사용자 손(41)이 기 설정된 시간 이내에 빠르게 선택되어 제 1 위치에서 제 2 위치로 이동함을 디텍트하면 사용자 인지 상태가 높은 등급임을 판단할 수 있다. 반면, 인지능력 개발 시스템(2)은 사용자 손(41)의 이동 속도가 느리고, 특정 콘텐츠(55) 선택 동작을 수행하지 못함을 디텍트하면 사용자 인지 상태가 낮은 등급임을 판단할 수 있다. 즉, 인지능력 개발 시스템(2)은 사용자 손(41)을 트래킹하여 사용자의 인지 상태를 판단할 수 있다. Additionally, as an example, FIG. 6A is a diagram illustrating a method of tracking a user's hand and enhancing a digital therapeutic agent according to an embodiment. As an example, the above-mentioned camera 3 can track not only the user's viewpoint 43 but also the user's hand 41. Here, the cognitive ability development system 2 can update the answer information 502 when it detects that the coordinates of the tracked user's hand 41 and the coordinates on the screen of the provided content match. Specifically, referring to Figure 6b, the cognitive ability development system 2 can track the user's hand 41 and detect an input that selects the specific content 55 at the location of the specific content 55. For example, when the cognitive ability development system 2 detects that the coordinates of each of the user's hands 41 are gathered within a preset distance, it can detect an input for selecting specific content 55 at that location. That is, the grasping motion of the user's hand 41 can be detected, and specific content 55 can be selected based on this. Afterwards, the cognitive ability development system 2 may detect that the specific content 55 selected based on the camera 3 moves from the first location to the second location. At this time, the content 61 provided at the second location may be a location that provides input for providing specific content 550 as answer information 502. That is, when the user's hand 41 selects specific content 550 and moves it to the blender 61, the cognitive ability development system 2 can recognize this and provide it as answer information 502. In other words, the cognitive ability development system 2 can recognize the user's hand 41 and track the recognized hand. At this time, the cognitive ability development system 2 may check the user's cognitive state based on the movement of the user's hand 41. For example, when the cognitive ability development system 2 detects that the user's hand 41 is quickly selected and moves from the first position to the second position within a preset time, it can determine that the user's cognitive state is at a high level. On the other hand, when the cognitive ability development system 2 detects that the movement speed of the user's hand 41 is slow and the user cannot perform the operation to select specific content 55, it can determine that the user's cognitive state is at a low level. In other words, the cognitive ability development system 2 can determine the user's cognitive state by tracking the user's hand 41.
또한, 일 예로, 도 6c를 참조하면, 인지능력 개발 시스템(2)는 사용자 손(41) 트래킹에 기초하여 최종 답변 정보를 도출하는 시간 정보에 기초하여 사용자 인지 상태를 판단할 수 있다. 일 예로, 도 6c에서 질문 정보(501)에 기초한 답변 정보(502)는 "모친"으로 사용자 손(41)이 "ㅗ" , "ㅊ" , "ㅣ" 및 "ㄴ"을 선택하여 상술한 제 2 위치(즉 믹서기, 61)로 이동함을 디텍트할 수 있으며, 해당 답변을 도출하는데까지 필요한 시간 정보를 도출할 수 있다. 일 예로, 인지능력 개발 시스템(2)은 상술한 바와 같이 최종 답변 정보(502)를 도출하는데 시간이 오래 걸리면 사용자 인지 상태 등급이 낮은 것으로 판단할 수 있으며, 최종 답변 정보(502) 도출 시간이 짧으면 사용자 인지 상태 등급이 높은 것으로 판단할 수 있다.Additionally, as an example, referring to FIG. 6C, the cognitive ability development system 2 may determine the user's cognitive state based on time information for deriving final answer information based on tracking the user's hand 41. As an example, in Figure 6c, the answer information 502 based on the question information 501 is "mother" and the user's hand 41 selects "ㅗ", "ㅊ", "ㅣ", and "ㄴ" to select the above-mentioned items. Movement to position 2 (i.e. blender, 61) can be detected, and time information required to derive the corresponding answer can be derived. For example, as described above, the cognitive ability development system 2 may determine that the user's cognitive status level is low if it takes a long time to derive the final answer information 502, and if the time to derive the final answer information 502 is short, the cognitive ability development system 2 may determine that the user's cognitive status level is low. It can be determined that the user's cognitive status level is high.
또 다른 일 예로, 인지능력 개발 시스템(2)은 사용자 시점(43) 및 사용자 손(41)을 모두 디텍트할 수 있다. 보다 상세하게는, 도 7a 및 도 7b를 참조하면, 사용자는 제공되는 콘텐츠에서 질문 정보(501)를 확인하여 특정 콘텐츠를 선택하여 이동시킴으로써 답변 정보(502)를 생성할 수 있다. 이때, 사용자의 시점(43)은 질문 정보(501) 및 답변 정보(502)에 기초하여 각각의 콘텐츠로 이동할 수 있으며, 사용자 손(41)은 답변 정보(502)를 위해 각각의 콘텐츠로 이동할 수 있다. 즉, 사용자는 인지능력 개발 시스템(2)으로부터 제공되는 콘텐츠를 눈으로 인식하고, 손으로 선택하여 특정 동작을 수행할 수 있다. 상술한 점을 고려하여, 인지능력 개발 시스템(2)은 사용자 시점(43) 및 사용자 손(41)을 모두 디텍트할 수 있으며, 이를 통해 사용자 인지 상태를 판단할 수 있다. 이때, 일 예로, 인지능력 개발 시스템(2)은 하나의 카메라(3)를 통해 사용자 시점(43) 및 사용자 손(41)을 모두 인식할 수 있다. 또 다른 일 예로, 인지능력 개발 시스템(2)은 복수 개의 카메라(3)를 구비하고, 복수 개의 카메라(3)에 기초하여 사용자 시점(43) 및 사용자 손(41)을 트래킹할 수 있다. 이때, 일 예로, 사용자 시점(43)에 기초하여 트래킹되는 정보 및 사용자 손(41)에 기초하여 트래킹되는 정보에는 각각의 가중치가 부여될 수 있으며, 가중치를 고려한 값들을 반영하여 사용자 인지 상태 등급이 결정될 수 있으며, 이를 통해 인지능력 개발 시스템(2)은 사용자 인지 상태를 확인할 수 있다.As another example, the cognitive ability development system 2 can detect both the user's viewpoint 43 and the user's hand 41. More specifically, referring to FIGS. 7A and 7B , the user can check question information 501 in the provided content and generate answer information 502 by selecting and moving specific content. At this time, the user's viewpoint 43 can move to each content based on the question information 501 and the answer information 502, and the user's hand 41 can move to each content for the answer information 502. there is. In other words, the user can recognize the content provided from the cognitive ability development system 2 with his eyes, select it with his hand, and perform a specific action. Considering the above, the cognitive ability development system 2 can detect both the user's viewpoint 43 and the user's hand 41, and can determine the user's cognitive state through this. At this time, as an example, the cognitive ability development system 2 can recognize both the user's viewpoint 43 and the user's hand 41 through one camera 3. As another example, the cognitive ability development system 2 may include a plurality of cameras 3 and track the user's viewpoint 43 and the user's hand 41 based on the plurality of cameras 3. At this time, as an example, individual weights may be assigned to information tracked based on the user's viewpoint 43 and information tracked based on the user's hand 41, and the user's cognitive state grade is determined by reflecting the values considering the weights. It can be determined, and through this, the cognitive ability development system 2 can check the user's cognitive state.
또 다른 일 예로, 도 8a를 참조하면, 인지능력 개발 시스템(2)은 가상 객체(71)를 제공하고, 가상 객체(71)에 기초하여 사용자의 얼굴(42) 및 사용자 신체(44) 중 적어도 어느 하나를 트래킹하여 사용자 인지 상태를 판단할 수 있다. 이때, 일 예로, 인지능력 개발 시스템(2)은 가상 객체(71)에 대한 제어를 통해 사용자가 가상 객체(71)를 쉽게 인식하도록 할 수 있다. 일 예로, 인지능력 개발 시스템(2)은 배경색을 기초로 단어조각을 둘러싸는 색을 조절할 수도 있다. 구체적인 일 예로, 인지능력 개발 시스템(2)은 보라색 커튼이 있는 경우에는 사용자가 쉽게 인식할 수 있도록 가상 객체(71)는 다른 색으로 디스플레이할 수 있다. 또한, 일 예로, 도 8b를 참조하면, 인지능력 개발 시스템(2)은 배경 내 실물 객체를 인식해서(e.g. 창문, 의자, 액자 등) 소정의 실물 객체 상에는 가상 객체(71)가 오버랩되지 않도록 가상객체의 위치를 동적으로 조절할 수 있다. 일 예로, 도 8b에서 가상 객체(71)는 실물 객체에 의해 사용자가 식별하지 못할 수 있으며, 이를 고려하여 사용자 식별이 가능한 영역으로 이동시킬 수 있다. 보다 구체적으로, 인지능력 개발 시스템(2)은 실물 객체의 밝기 및 복잡도(complexity)와 가상 객체(71)의 색상 및 투과도를 고려해서 가상객체의 위치를 선정할 수 있다. 이때, 인지능력 개발 시스템(2)은 카메라를 통해 가상 객체(71)가 디스플레이되는 공간을 감지하고, 공간 상의 실물 객체를 인지하여 밝기 및 복잡도 정보를 도출할 수 있다. 이때, 인지능력 개발 시스템(2)은 가상 객체(71)의 색상 및 투과도 정보를 도출하여 상술한 실물 객체 정보와 비교함으로써 사용자가 쉽게 인식할 수 있는 위치를 결정할 수 있다.As another example, referring to FIG. 8A, the cognitive ability development system 2 provides a virtual object 71 and at least one of the user's face 42 and the user's body 44 based on the virtual object 71. By tracking either one, you can determine the user's cognitive state. At this time, as an example, the cognitive ability development system 2 can enable the user to easily recognize the virtual object 71 through control of the virtual object 71. As an example, the cognitive ability development system 2 may adjust the color surrounding the word fragment based on the background color. As a specific example, when there is a purple curtain, the cognitive ability development system 2 may display the virtual object 71 in a different color so that the user can easily recognize it. In addition, as an example, referring to FIG. 8b, the cognitive ability development system 2 recognizes real objects in the background (e.g. windows, chairs, picture frames, etc.) The position of an object can be adjusted dynamically. For example, in FIG. 8B, the virtual object 71 may not be identifiable to the user due to the real object, and taking this into consideration, the virtual object 71 may be moved to an area where the user can identify it. More specifically, the cognitive ability development system 2 can select the location of the virtual object by considering the brightness and complexity of the real object and the color and transparency of the virtual object 71. At this time, the cognitive ability development system 2 can detect the space where the virtual object 71 is displayed through the camera and derive brightness and complexity information by recognizing the real object in the space. At this time, the cognitive ability development system 2 can determine a position that the user can easily recognize by deriving the color and transparency information of the virtual object 71 and comparing it with the above-described real object information.
구체적인 일 예로, 밝기는 주변 조도나 창문 등에 의해 빛이 들어오는 정도일 수 있다. 또한, 일 예로, 복잡도는 복잡한 그림이 그려진 벽지나 액자의 그림에 기초하여 인식되는 배경일 수 있다. 일 예로, 가상 객체(71)의 색상과 투과도는 배경과의 보색 또는 유사도가 고려되거나, 투과도가 높으면 투과도를 낮추거나 이동시킬 수 있다. 또 다른 일 예로, 인지능력 개발 시스템(2)은 사용자 위치도 조정할 수 있다. 일 예로, 인지능력 개발 시스템(2)은 가상 객체(71)를 따라하는 사용자의 얼굴(41) 또는 사용자의 신체(44)를 트래킹하여 사용자 인지 상태를 판단할 수 있다. 이때, 사용자 주변에 상술한 실물 객체가 많은 경우처럼 복잡도가 높은 경우나 밝기가 높아 사용자 인식이 쉽지 않은 경우, 인지능력 개발 시스템(2)은 사용자 위치를 조정하는 정보를 디스플레이할 수 있으며, 이에 기초하여 사용자의 위치가 조정된 후 사용자 동작을 인식할 수 있다.As a specific example, brightness may be the degree to which light enters due to ambient illumination or a window. Additionally, as an example, complexity may be a background recognized based on wallpaper or a picture frame with a complicated picture. For example, the color and transmittance of the virtual object 71 may be considered complementary or similar to the background, or if the transmittance is high, the transmittance may be lowered or moved. As another example, the cognitive ability development system 2 can also adjust the user's location. As an example, the cognitive ability development system 2 may determine the user's cognitive state by tracking the user's face 41 or the user's body 44 that imitates the virtual object 71. At this time, in cases where complexity is high, such as when there are many physical objects described above around the user, or when user recognition is difficult due to high brightness, the cognitive ability development system 2 may display information to adjust the user's location, and based on this, Thus, the user's movements can be recognized after the user's position has been adjusted.
또 다른 일 예로, 도 9a 및 도 9b는 사용자 시점(43) 트래킹에 기초하여 사용자 인지 상태를 판단하는 방법을 나타낸 도면이다. 일 예로, 도 9a 및 도 9b는 복수 개의 콘텐츠(91, 92, 93, 94, 95, 96, 97, 98, 99)를 배치하고, 이에 따라 이동하는 사용자 시점(43)을 트래킹할 수 있다. 이때, 인지능력 개발 시스템(2)는 복수 개의 콘텐츠(91, 92, 93, 94, 95, 96, 97, 98, 99)을 모두 확인하는 동작이 필요함을 사용자에게 전달하고, 사용자는 복수 개의 콘텐츠(91, 92, 93, 94, 95, 96, 97, 98, 99)를 시선을 통해 확인할 수 있다. 이때, 인지능력 개발 시스템(2)은 사용자 시점(43)을 트래킹하여 사용자 시점(43)이 처음 콘텐츠(91)에서 마지막 콘텐츠(99)까지 이동했다가 다시 돌아오는 시간 정보를 획득할 수 있다. 이때, 인지능력 개발 시스템(2)은 시간 정보가 짧으면 사용자 인지 상태의 등급이 높다고 판단하고, 시간 정보가 길면 사용자 인지 상태 등급이 낮다고 판단할 수 있다.As another example, FIGS. 9A and 9B are diagrams showing a method of determining a user's cognitive state based on tracking the user's viewpoint 43. As an example, in FIGS. 9A and 9B, a plurality of contents 91, 92, 93, 94, 95, 96, 97, 98, and 99 are arranged, and the user's viewpoint 43 moving accordingly can be tracked. At this time, the cognitive ability development system 2 informs the user that an operation to check all the plurality of contents (91, 92, 93, 94, 95, 96, 97, 98, 99) is required, and the user selects the plurality of contents. (91, 92, 93, 94, 95, 96, 97, 98, 99) can be confirmed by looking. At this time, the cognitive ability development system 2 can track the user viewpoint 43 and obtain information on the time when the user viewpoint 43 moves from the first content 91 to the last content 99 and back again. At this time, the cognitive ability development system 2 may determine that the level of the user's cognitive state is high if the time information is short, and may determine that the level of the user's cognitive state is low if the time information is long.
또한, 일 예로, 사용자 인지 상태 등급은 기 설정된 조건에 기초하여 복수 개의 등급으로 설정될 수 있다. 일 예로, 각각의 등급을 분류하는 각각의 조건에는 가중치가 부여될 수 있으며, 가중치 정보에 기초하여 사용자 인지 상태 등급이 결정될 수 있다. 일 예로, 상술한 바에서 사용자 시점(43)에 기초하여 답변 정보(502)가 도출되는 시간 정보에는 제 1 가중치가 부여되고, 사용자 시점(43)에 기초하여 사용자가 질문 정보(501)를 확인하는 횟수에는 제 2 가중치가 부여될 수 있다. 이때, 인지능력 개발 시스템(2)는 각각의 가중치를 고려한 값으로 최종 값을 도출하고, 최종 값이 도출된 영역에 대응되는 사용자 인지 상태 등급을 확인할 수 있다.Additionally, as an example, the user cognitive status level may be set to a plurality of levels based on preset conditions. As an example, a weight may be assigned to each condition that classifies each grade, and the user's cognitive state grade may be determined based on the weight information. As an example, as described above, a first weight is given to the time information at which the answer information 502 is derived based on the user viewpoint 43, and the user confirms the question information 501 based on the user viewpoint 43. A second weight may be assigned to the number of times. At this time, the cognitive ability development system 2 can derive the final value by considering each weight and check the user's cognitive status grade corresponding to the area from which the final value was derived.
또 다른 일 예로, 사용자 손(41)을 추가로 인식하는 경우에 사용자 손(41)에 기초하여 특정 콘텐츠가 선택되어 최종 답변이 도출되는 시간 정보에는 제 3 가중치가 부여되고, 사용자 손(41)의 트래킹에 기초하여 사용자가 특정 콘텐츠 선택을 수행하는 동작에 제 4 가중치를 부여할 수 있다. 이때, 인지능력 개발 시스템(2)은 제 1 가중치, 제 2 가중치, 제 3 가중치 및 제 4 가중치를 모두 반영하여 최종 값을 도출하고, 최종 값이 도출된 영역에 대응되는 사용자 인지 상태 등급을 확인할 수 있다. 즉, 사용자 인지 상태 등급은 인지능력 개발 시스템(2)에 의해 도출되는 최종 값과 비교를 통해 수행될 수 있다. 또한, 일 예로, 인지능력 개발 시스템(2)은 상술한 사용자 인지 상태 등급 정보에 기초하여 학습 데이터를 생성하고, 생성된 학습 데이터에 기초하여 사용자 인지 상태 등급에 맞도록 콘텐츠를 조절할 수 있다. 또한, 생성된 학습 데이터는 피드백되어 인지능력 개발 시스템(2)으로 전달될 수 있으며, 인지능력 개발 시스템(2)은 상술한 정보를 반영하여 사용자 인지 상태 등급에 맞는 콘텐츠를 효율적으로 제공할 수 있다. As another example, when the user's hand 41 is additionally recognized, a third weight is given to the time information at which specific content is selected based on the user's hand 41 and the final answer is derived, and the user's hand 41 A fourth weight may be assigned to the user's action of selecting specific content based on tracking. At this time, the cognitive ability development system 2 reflects all of the first weight, second weight, third weight, and fourth weight to derive the final value, and confirms the user cognitive status grade corresponding to the area from which the final value was derived. You can. In other words, the user cognitive status rating can be performed through comparison with the final value derived by the cognitive ability development system 2. Additionally, as an example, the cognitive ability development system 2 may generate learning data based on the user cognitive state grade information described above, and adjust content to match the user cognitive state grade based on the generated learning data. In addition, the generated learning data can be fed back and transmitted to the cognitive ability development system (2), and the cognitive ability development system (2) can efficiently provide content appropriate for the user's cognitive status level by reflecting the above-mentioned information. .
도 10은 일 실시예에 따라 디지털 치료제 학습 과제를 나타낸 도면이다. 인지능력 개발 시스템(2)을 통해 사용자 장치(1)로 상술한 콘텐츠들이 제공될 수 있으며, 사용자의 손(41), 얼굴(42) 및 시점(또는 시선, 43) 중 적어도 어느 하나 이상을 트래킹하여 콘텐츠에 대한 학습 정도를 확인하여 디지털 치료제를 제공할 수 있다. 여기서, 도 10을 참조하면, 상술한 인지능력 개발 시스템(2)은 인지능력의 개선을 위하여 관리가 필요한 내용들을 혈관질환 관리, 인지 훈련, 운동, 영양 관리 및 동기 강화의 5개의 인지 영역으로 구분할 수 있다. 그 후, 인지능력 개발 시스템(2)은 사용자 장치(1)로 관리가 필요한 각각의 과제들과 관련된 콘텐츠를 통해 각각의 과제를 생성할 수 있다. 일 예로, 각각의 과제는 관리가 필요한 내용들을 고려하여 생성되는 콘텐츠들로 사용자는 각각의 과제들에 대한 학습을 수행할 수 있다. 또한, 사용자에 대한 상술한 트래킹 방법을 통해 각 과제에 대한 인지 점수, 소모 시간 진행률, 참여율 및 그 밖의 정보들을 도출하여 사용자 맞춤형 콘텐츠를 결정하여 제공할 수 있다. 여기서, 사용자 맞춤형 콘텐츠는 일회성으로 제공될 수 있다. 또 다른 일 예로, 사용자 맞춤형 콘텐츠는 일정 주기에 기초하여 복수 개의 과제를 제공하는 형태일 수 있다. 일 예로, 디지털 치료제는 치매 등 인지 능력에 대한 개선을 위해 사용자가 지속적으로 학습을 수행해야 할 필요성이 있으며, 상술한 점을 고려하여 사용자 맞춤형 콘텐츠가 일정 주기에 따라 제공될 수 있다. 여기서, 도 10을 참조하면, 인지능력 개발 시스템(2)은 인지과제로서 "김치 담그기(101)", "방금 전 카드 기억하기(102)", "토마토 기르기(103)", "얼마일까요(104)" 과제를 사용자에게 제공할 수 있다. 또한, 인지능력 개발 시스템(2)은 운동 과제로서 운동 횟수 관련 과제(105)를 제공할 수 있으며, 영양 과제로서 "마인드 식사법(106)" 및 "식단 관리 과제(107)를 제공할 수 있다. 즉, 인지능력 개발 시스템(2)은 디지털 치료제 효과를 고려하여 복수 개의 과제를 사용자 장치(1)를 통해 사용자에게 제공할 수 있다. 여기서, 사용자는 사용자 장치(1)를 통해 상술한 과제들을 수행하여야 디지털 치료의 효과를 기대할 수 있다. 다만, 순응도가 낮은 사용자는 학습을 이탈할 수 있다. 주기적으로 디지털 치료제를 사용하지 않는 경우 디지털 치료제의 효과가 현저히 낮아지므로 이를 방지할 필요성이 있다. 일 예로, 디지털 치료제는 환자 스스로 소정 시간을 들여서 집중해서 디지털 치료제를 수행해야 하고, 정해진 기간동안 주기적으로 수행해야 효과가 나타날 수 있으나, 이를 강제하는 것이 쉽지 않을 수 있다. 따라서, 인지능력 개발 시스템(2)이 디지털 치료제로 도 10의 학습을 사용자에게 제공하는 경우, 사용자 이탈을 고려하여 리마인드를 진행하는 방법이 필요할 수 있다. 구체적으로, 사용자는 일련의 절차에 따라서 처방된 디지털 치료제의 과제들을 수행해야 할 필요성이 있다. 즉, 사용자는 디지털 치료제 효과를 고려하여 일련의 절차에 따라서 해당 과제들을 수행할 필요성이 있다. 일 예로, 사용자는 매일 정해진 과제를 모두 완료할 필요성이 있으나, 임의로 중단하는 경우를 고려할 수 있다. 특히, 사용자가 기관이나 시설로서 다른 사용자 또는 관리자와 함께 학습을 수행하는 것이 아닌 집에서 홀로 재가형으로 학습을 수행하는 경우에는 학습 중단이 빈번할 수 있으며, 이를 위한 리마인드 방법이 필요할 수 있다.Figure 10 is a diagram showing a digital therapeutics learning task according to one embodiment. The above-described contents can be provided to the user device 1 through the cognitive ability development system 2, and at least one of the user's hand 41, face 42, and viewpoint (or gaze 43) is tracked. By doing this, digital treatments can be provided by checking the level of learning about the content. Here, referring to FIG. 10, the above-mentioned cognitive ability development system (2) divides the content that needs to be managed to improve cognitive ability into five cognitive areas: vascular disease management, cognitive training, exercise, nutritional management, and motivation enhancement. You can. Thereafter, the cognitive ability development system 2 can create each task through content related to each task that needs to be managed by the user device 1. For example, each task is content created in consideration of contents that need to be managed, and the user can learn about each task. In addition, through the above-described tracking method for users, it is possible to derive recognition scores for each task, time spent progress, participation rate, and other information to determine and provide customized content to the user. Here, user-customized content may be provided on a one-time basis. As another example, user-customized content may be in the form of providing a plurality of tasks based on a certain cycle. For example, digital therapeutics require users to continuously learn to improve cognitive abilities such as dementia, and taking the above into consideration, user-customized content may be provided at a certain cycle. Here, referring to FIG. 10, the cognitive ability development system 2 includes cognitive tasks such as “making kimchi (101),” “remembering the card from before (102),” “growing tomatoes (103),” and “how much is it?” 104)" Assignments can be provided to users. In addition, the cognitive ability development system 2 can provide a task 105 related to the number of exercises as an exercise task, and can provide a “mind meal method 106” and a “diet management task 107” as a nutrition task. In other words, the cognitive ability development system 2 can provide a plurality of tasks to the user through the user device 1, taking the digital therapeutic effect into account. Here, the user performs the above-described tasks through the user device 1. Only then can the effectiveness of digital treatment be expected. However, users with low compliance may deviate from learning. If digital treatment is not used regularly, the effectiveness of digital treatment is significantly reduced, so there is a need to prevent this. For example, , Digital therapeutics require the patient to spend a certain amount of time and focus on performing the digital therapeutic treatment, and the effect can be achieved only when the patient performs the digital therapeutic treatment periodically for a set period of time, but it may not be easy to force this. Therefore, the cognitive ability development system (2) When providing the learning shown in Figure 10 to the user with this digital treatment, a method of reminding may be necessary to take user withdrawal into account. Specifically, the user must perform the tasks of the prescribed digital treatment according to a series of procedures. There is a need. In other words, there is a need for the user to perform the tasks according to a series of procedures considering the effectiveness of the digital treatment. For example, the user needs to complete all the assigned tasks every day, but considering the case where the user stops arbitrarily In particular, if the user studies alone at home rather than with other users or administrators at an institution or facility, learning interruptions may be frequent, and a reminder method may be needed for this. there is.
여기서, 인지 능력 개발 시스템(2)은 사용자 장치(1)를 통해 상술한 바와 같이 사용자를 트래킹하고, 사용자 입력을 디텍트하여 사용자의 과제 수행 정도를 인지할 수 있다. 이때, 인지 능력 개발 시스템(2)은 사용자가 주어진 과제에 대해서 최종 진행 단계까지 완료하였는지 중간에 종료한 것인지 여부를 확인할 수 있다. 즉, 인지 능력 개발 시스템(2)은 디지털 치료 효과를 고려하여 기 설정된 주기에 맞게 과제를 제공할 수 있다. 일 예로, 인지 능력 개발 시스템(2)은 사용자에게 매일 상술한 인지과제, 운동과제 및 영양과제를 제공할 수 있으나, 이는 하나의 일 예일 뿐 상술한 실시예로 한정되지 않는다. 다만, 하기에서는 설명의 편의를 위해 인지 능력 개발 시스템(2)이 매일 사용자에게 인지과제, 운동과제 및 영양과제를 제공하는 경우를 기준으로 서술한다. 다만, 이에 한정되는 것은 아닐 수 있다. Here, the cognitive ability development system 2 can track the user through the user device 1 as described above, detect user input, and recognize the user's degree of task performance. At this time, the cognitive ability development system 2 can check whether the user has completed the final progress of the given task or finished it midway. In other words, the cognitive ability development system 2 can provide tasks according to a preset cycle by considering the digital treatment effect. As an example, the cognitive ability development system 2 may provide the user with the above-described cognitive tasks, exercise tasks, and nutritional tasks every day, but this is only an example and is not limited to the above-described embodiment. However, for convenience of explanation, the following description is based on the case where the cognitive ability development system 2 provides cognitive tasks, exercise tasks, and nutritional tasks to users every day. However, it may not be limited to this.
도 11은 일 실시예에 따라 디지털 치료제 학습 과제 진행 상태를 나타낸 도면이다. 도 11을 참조하면, 인지 능력 개발 시스템(2)은 사용자 장치(1)로 각 과제별 진행 단계 정보(111,112,113,114,115,116,117)를 제공할 수 있다. 여기서, 일 예로, 인지 능력 개발 시스템(2)은 각 과제별 학습 순서를 기 설정할 수 있다. 즉, 사용자는 각 과제를 기 설정된 순서에 맞춰서 수행해야 할 수 있다. 또 다른 일 예로, 인지 능력 개발 시스템(2)은 각 과제별 학습 순서를 제한하지 않을 수 있다. 즉, 사용자는 각 과제를 모두 수행하면 될 뿐 순서는 무관할 수 있다. 여기서, 상술한 과제별 진행 단계 정보(111,112,113,114,115,116,117)는 각 과제의 진행 정도를 나타낼 수 있다. 일 예로, 사용자가 특정 과제를 완료하면 "과제 완료"로 표시되고, 과제를 중간에 중단하면 "이어하기"로 표시되고, 과제를 시작하지 않았으면 "시작하기"로 표시될 수 있으나, 해당 실시예로 한정되는 것은 아닐 수 있다. Figure 11 is a diagram showing the progress of a digital therapeutics learning task according to an embodiment. Referring to FIG. 11, the cognitive ability development system 2 may provide progress stage information (111, 112, 113, 114, 115, 116, 117) for each task to the user device 1. Here, as an example, the cognitive ability development system 2 may preset the learning order for each task. In other words, the user may have to perform each task in a preset order. As another example, the cognitive ability development system 2 may not restrict the learning order for each task. In other words, the user only needs to perform each task, and the order may be irrelevant. Here, the progress stage information for each task described above (111, 112, 113, 114, 115, 116, 117) may indicate the progress of each task. For example, if the user completes a specific task, it may be displayed as “Task Completed,” if the user stops the task in the middle, it may be displayed as “Continue,” and if the user has not started the task, it may be displayed as “Start.” It may not be limited to this example.
여기서, 일 예로, 사용자는 상술한 세 개의 카테고리의 7개 과제 중 세부과제 몇 개만 완료하고 중단할 수 있다. 또 다른 일 예로, 사용자는 세부과제를 진행하는 중간에 진행을 중단할 수 있다.Here, as an example, the user may complete only a few detailed tasks among the seven tasks in the three categories and then stop. As another example, the user can stop progressing in the middle of completing a detailed task.
여기서, 인지 능력 개발 시스템(2)은 사용자의 중단 시점을 디텍트할 수 있으며, 이에 기초하여 리마인드 방법을 상이하게 설정할 수 있다. 구체적으로, 인지 능력 개발 시스템(2)는 세부과제 완료 후에 사용자가 학습을 중단함을 디텍트할 수 있다. 즉, 사용자가 세부과제에 대해서 학습은 완료하고, 다른 과제를 시작하기 전에 학습을 중단함을 디텍트할 수 있다. 이때, 인지 능력 개발 시스템(2)은 사용자가 다른 사정이나 학습 시간을 변경하여 학습을 수행하는 것으로 인지할 수 있다. 즉, 인지 능력 개발 시스템(2)은 일반적인 학습 중단을 판단하고, 일반적인 리마인드 메시지나 동기 영상을 제공할 수 있다.Here, the cognitive ability development system 2 can detect the user's interruption point and set different reminder methods based on this. Specifically, the cognitive ability development system 2 can detect that the user stops learning after completing a detailed task. In other words, it is possible to detect that the user completes learning about a detailed task and stops learning before starting another task. At this time, the cognitive ability development system 2 may recognize that the user is performing learning by changing the learning time or other circumstances. In other words, the cognitive ability development system 2 can determine general learning disruption and provide a general reminder message or motivational video.
반면, 인지 능력 개발 시스템(2)은 사용자가 세부 과제 진행 중 중간에 중단함을 디텍트할 수 있다. 이때, 인지 능력 개발 시스템(2)은 사용자의 상태 정보를 더 도출할 수 있다. 보다 상세하게는, 사용자가 세부과제를 진행하면서 저조한 결과를 내다가 학습을 중단한 것이라면 사용자의 학습 난이도가 맞지 않을 수 있으며, 이를 고려하여 난이도 조절을 수행할 수 있다. 또한, 상술한 경우, 인지 능력 개발 시스템(2)은 사용자에게 리마인드 제공시 중단된 미션의 평균 성공률 또는 다른 사용자의 미션 이탈률 정보를 함께 제공할 수 있다. 즉, 인지 능력 개발 시스템(2)은 사용자의 세부 과제 중단 시점을 고려하여 리마인드시 추가 정보를 제공하여 사용자가 학습을 포기하지 않고 진행하도록 도움을 줄 수 있다.On the other hand, the cognitive ability development system (2) can detect that the user stops midway through a detailed task. At this time, the cognitive ability development system 2 may further derive the user's status information. More specifically, if the user gives poor results while performing a detailed task and then stops learning, the user's learning difficulty level may not match, and difficulty adjustment can be performed taking this into consideration. Additionally, in the case described above, the cognitive ability development system 2 may also provide information about the average success rate of aborted missions or the mission departure rate of other users when providing a reminder to the user. In other words, the cognitive ability development system 2 can help the user proceed with learning without giving up by taking into account the user's point of interruption in a detailed task and providing additional information when reminded.
또 다른 일 예로, 인지 능력 개발 시스템(2)는 사용자가 세부과제를 중단하면서 높은 학습 결과를 도출하면서 중단함을 디텍트할 수 있다. 여기서, 인지 능력 개발 시스템(2)은 사용자에게 리마인드를 제공하면서 남은 미션의 종류 및 필요성을 제공하고, 현재 성적이 우수하다는 정보를 함께 제공할 수 있다. 즉, 인지 능력 개발 시스템(2)은 사용자가 학습을 중단하지 않고, 지속할 수 있도록 하는 추가 정보를 제공할 수 있다. As another example, the cognitive ability development system 2 can detect that the user stops performing a detailed task while producing high learning results. Here, the cognitive ability development system 2 may provide a reminder to the user, provide the type and necessity of remaining missions, and also provide information that current grades are excellent. In other words, the cognitive ability development system 2 can provide additional information that allows the user to continue learning without stopping.
또 다른 일 예로, 인지 능력 개발 시스템(2)은 사용자 학습 정보와 함께 타인의 학습 정보를 제공할 수 있다. 또한, 일 예로, 인지 능력 개발 시스템(2)은 사용자의 학습 결과를 타인과 공유하도록 플랫폼을 제공할 수 있도록 하며, 이를 통해 다른 사용자에게 관련 정보를 공유하여 학습에 대한 동기 부여를 제공할 수 있다. 즉, 인지 능력 개발 시스템(2)은 사용자가 학습 중단 시점을 고려하여 리마인드 정보를 상이하게 설정할 수 있다.As another example, the cognitive ability development system 2 may provide learning information of others along with user learning information. In addition, as an example, the cognitive ability development system 2 can provide a platform to share the user's learning results with others, and through this, related information can be shared with other users to provide motivation for learning. . In other words, the cognitive ability development system 2 can set reminder information differently considering the time when the user stops learning.
이때, 일 예로, 인지 능력 개발 시스템(2)은 사용자가 학습 중단 시 사용자 상태 정보를 생성할 수 있다. 일 예로, 사용자 상태 정보는 상술한 바와 같이 사용자가 세부 과제 중간에 중단하였는지 또는 세부 과제를 완료하고, 전체 과제를 완료하기 전에 중단하였는지 여부에 대한 정보를 포함할 수 있다. 또한, 일 예로, 사용자 상태 정보는 상술한 사용자 트래킹 정보에 기초하여 사용자의 학습 능력 인지 정보를 포함할 수 있다. 일 예로, 인지 능력 개발 시스템(2)는 사용자가 과제를 중단한 시점까지 수행한 과제들에 대해서 상술한 바와 같이 사용자 트래킹을 통해 사용자의 학습 능력 상태 정보를 도출할 수 있다. 일 예로, 사용자 트래킹을 통해 사용자가 동일 문장을 많이 읽거나 학습을 제대로 수행하고 있지 못한 경우에는 학습 능력 상태가 낮은 상태로 도출될 수 있다. 또한, 인지 능력 개발 시스템(2)은 사용자가 과제를 시작한 시점부터 과제를 중단한 시점까지의 시간 정보를 고려하여 사용자 상태 정보를 획득할 수 있다. 일 예로, 사용자가 과제를 시작한지 오랜 시간이 경과한 후에 과제를 중단한 경우라면 사용자는 학습에 문제가 발생한 상황이 아니라 다른 사유에 의해서 학습을 중단한 경우일 수 있다. 또 다른 일 예로, 인지 능력 개발 시스템(2)은 사용자의 평균 학습 능력이나 디지털 치료 학습 정도에 기초하여 학습 중단과 관련된 사용자 상태 정보를 생성할 수 있다. 또 다른 일 예로, 인지 능력 개발 시스템(2)은 사용자에 대한 외부 상태 정보를 지속적으로 업데이트하고, 사용자의 현재 인지 능력을 반영하여 사용자 상태 정보를 생성할 수 있다. 여기서, 일 예로, 사용자 상태 정보는 빅데이터로서 사용자의 다양한 정보를 반영하여 사용자가 학습을 수행하는 과정에서 적절하게 학습을 수행하는지 여부를 판단하는 정보일 수 있으며, 특정 실시예로 한정되지 않는다.At this time, as an example, the cognitive ability development system 2 may generate user status information when the user stops learning. As an example, the user status information may include information about whether the user stopped in the middle of a detailed task, or completed the detailed task and stopped before completing the entire task, as described above. Additionally, as an example, the user status information may include the user's learning ability recognition information based on the above-described user tracking information. As an example, the cognitive ability development system 2 may derive information on the user's learning ability status through user tracking, as described above, for tasks performed up to the time the user stopped the task. For example, through user tracking, if a user reads the same sentence a lot or is not learning properly, the learning ability state may be determined to be low. Additionally, the cognitive ability development system 2 may obtain user status information by considering time information from the time the user started the task to the time the user stopped the task. For example, if a user stops a task after a long time has elapsed since starting the task, the user may have stopped learning due to other reasons rather than a problem in learning. As another example, the cognitive ability development system 2 may generate user status information related to learning interruption based on the user's average learning ability or digital therapy learning level. As another example, the cognitive ability development system 2 may continuously update external state information about the user and generate user state information by reflecting the user's current cognitive ability. Here, as an example, the user status information is big data and may be information that reflects various information about the user to determine whether the user is appropriately learning during the learning process, and is not limited to a specific embodiment.
이때, 인지 능력 개발 시스템(2)은 사용자 상태 정보를 통해 학습 중단에 대한 리마인드를 상이하게 설정할 수 있다. 즉, 인지 능력 개발 시스템(2)은 사용자가 학습을 중단하는 경우에 제공하는 리마인드 정보를 사용자 상태 정보를 반영하여 결정할 수 있다. At this time, the cognitive ability development system 2 may set different reminders for stopping learning through user status information. In other words, the cognitive ability development system 2 can determine the reminder information provided when the user stops learning by reflecting the user status information.
구체적인 일 예로, 도 12a는 일 실시예에 따라 사용자의 학습 종료 시점에 기초하여 학습 순응도를 판단하는 방법을 나타낸 도면이고, 도 12b는 일 실시예에 따라 사용자의 학습 순응도에 기초하여 리마인드를 제공하는 방법을 나타낸 도면이다.As a specific example, FIG. 12A is a diagram showing a method of determining learning compliance based on the user's learning completion point according to an embodiment, and FIG. 12B is a diagram showing a method of providing a reminder based on the user's learning compliance according to an embodiment. This is a drawing showing the method.
이때, 도 12a를 참조하면, 사용자는 인지 과제(대과제) 중 세부과제로 김치담그기(101), 방금전 카드 기억하기(102)를 완료한 상태에서 학습을 중단할 수 있다. 즉, 사용자는 세부 과제에 대한 학습은 완료한 상태에서 학습을 중단할 수 있다. 여기서, 인지 능력 개발 시스템(2)은 사용자의 학습 중단이 학습에 따른 영향보다는 사용자의 사유에 기초한 것임을 판단할 수 있다. 또 다른 일 예로, 인지 능력 개발 시스템(2)은 사용자의 다른 상태 정보를 더 고려하여 학습 중단이 학습에 따른 영향보다 사용자의 사유에 기초한 것임을 판단할 수 있다. 이때, 인지 능력 개발 시스템(2)은 리마인드를 제공하면서 "계속하기(121)"와 "종료하기(122)" 버튼을 제공하고, 이와 함께 이후 학습을 진행하는 스케줄 정보를 제공할 수 있다. 일 예로, 인지 능력 개발 시스템은 "5분 후 다시 시작하기(123)" , "전화통화 후 다시하기(10분)(124)" , "식사 후 다시 시작하기(1시간 후)(125)" 및 "직접 입력(126)" 버튼을 리마인드 정보로 제공할 수 있다. 여기서, 사용자는 리마인드 정보 중 특정 정보를 선택할 수 있으며, 이에 기초하여 인지 능력 개발 시스템(2)은 알림을 설정할 수 있으며, 이와 관련해서는 후술한다.At this time, referring to FIG. 12A, the user can stop learning after completing making kimchi (101) and remembering the previous card (102) as detailed tasks among the cognitive tasks (major tasks). In other words, the user can stop learning after completing learning about the detailed task. Here, the cognitive ability development system 2 may determine that the user's cessation of learning is based on the user's reasons rather than the impact of learning. As another example, the cognitive ability development system 2 may further consider other state information of the user and determine that learning interruption is based on the user's reasons rather than the impact of learning. At this time, the cognitive ability development system 2 may provide a reminder and “Continue (121)” and “End (122)” buttons, and may also provide schedule information for future learning. For example, the cognitive ability development system is “Restart after 5 minutes (123)”, “Restart after phone call (10 minutes) (124)”, “Restart after meal (1 hour later) (125)” and “Direct input (126)” buttons can be provided as reminder information. Here, the user can select specific information from the reminder information, and based on this, the cognitive ability development system 2 can set a notification, which will be described later.
도 13a내지 도 13d는 사용자가 학습 도중에 중단한 경우를 나타낸 도면이다. 도 13a를 참조하면, 사용자는 인지 과제(대과제) 중 세부과제로 김치담그기(101), 방금전 카드 기억하기(102)를 완료하고, 토마토 기르기(103)를 수행하는 도중에 학습을 중단할 수 있다. 즉, 사용자는 세부 과제 도중에 학습은 완료한 상태에서 학습을 중단할 수 있다. 여기서, 인지 능력 개발 시스템(2)은 사용자의 학습 중단이 학습에 따른 영향인 것으로 판단할 수 있다. 또 다른 일 예로, 인지 능력 개발 시스템(2)은 사용자의 다른 상태 정보를 더 고려하여 학습 중단이 학습에 따른 영향에 기초한 것임을 판단할 수 있다. 이때, 도 13b를 참조하면, 인지 능력 개발 시스템(2)은 세부 과제로서 토마토 기르기(103)에 대한 학습 정보(131)를 도출할 수 있다. 일 예로, 학습 정보(131)는 상술한 인지 점수, 소모 시간, 진행률, 참여율 및 그 밖의 정보일 수 있으며, 특정 실시예로 한정되지 않는다. 또한, 인지 능력 개발 시스템(2)은 학습 정보(131)를 다른 사용자의 학습 정보(132)와 비교할 수 있다. 일 예로, 도 13c를 참조하면, 인지 능력 개발 시스템(2)은 상술한 사용자의 상태 정보와 학습 능력을 고려하여 현재 학습 정보(131)를 다른 사용자의 학습 정보(132)와 비교하여 사용자가 학습에 대한 영향으로 학습을 중단하는지 여부를 확인할 수 있다. 이때, 도 13d를 참조하면, 인지 능력 개발 시스템(2)은 리마인드를 제공하면서 "계속하기(121)"와 "종료하기(122)" 버튼을 제공하고, 이와 함께 이후 학습을 진행하는 스케줄 정보를 제공할 수 있다. 일 예로, 인지 능력 개발 시스템은 "5분 후 다시 시작하기(131)" , "전화통화 후 다시하기(10분)(132)" , "난이도 값 낮추기(133)" 및 "힌트 얻기(134)" 버튼을 리마인드 정보로 제공할 수 있다. 즉, 인지 능력 개발 시스템(2)은 사용자가 학습을 중단한 사유가 학습 영향에 따라 중단된 것으로 판단하고, 학습 영향을 고려한 리마인드 정보를 제공할 수 있다.Figures 13a to 13d are diagrams showing a case where a user stops learning during learning. Referring to Figure 13a, the user can stop learning while completing the detailed tasks of making kimchi (101) and remembering the previous card (102), and growing tomatoes (103) as detailed tasks among the cognitive tasks (major tasks). there is. In other words, the user can stop learning while completing the detailed task. Here, the cognitive ability development system 2 may determine that the user's interruption of learning is an effect of learning. As another example, the cognitive ability development system 2 may determine that learning interruption is based on the impact of learning by further considering other state information of the user. At this time, referring to FIG. 13B, the cognitive ability development system 2 can derive learning information 131 about growing tomatoes 103 as a detailed task. As an example, the learning information 131 may be the above-described recognition score, time spent, progress rate, participation rate, and other information, and is not limited to a specific embodiment. Additionally, the cognitive ability development system 2 may compare the learning information 131 with the learning information 132 of other users. As an example, referring to FIG. 13C, the cognitive ability development system 2 considers the user's status information and learning ability described above and compares the current learning information 131 with the learning information 132 of other users to help the user learn. You can check whether learning is interrupted due to its impact on . At this time, referring to FIG. 13D, the cognitive ability development system 2 provides a reminder and “Continue (121)” and “End (122)” buttons, along with schedule information for subsequent learning. can be provided. As an example, the cognitive ability development system includes “Restart in 5 minutes (131),” “Restart after phone call (10 minutes) (132),” “Lower difficulty value (133),” and “Get hints (134).” " button can be provided as reminder information. In other words, the cognitive ability development system 2 may determine that the reason the user stopped learning was due to the learning impact, and provide reminder information considering the learning impact.
여기서, 일 예로, 리마인드 정보는 도 12처럼 사용자 사유에 의한 제 1 인터페이스 정보와 도 13처럼 학습 영향에 의한 제 2 인터페이스 정보 중 어느 하나로 설정될 수 있다. 즉, 인지 능력 개발 시스템(2)은 리마인드를 상술한 제 1 인터페이스 정보 또는 제 2 인터페이스 정보 중 어느 하나로 제공할 수 있다. 여기서, 인지 능력 개발 시스템(2)은 상술한 사용자 상태 정보와 사용자 관련 정보 및 그 밖의 정보들 각각에 가중치를 부여하고, 각각의 값을 도출하여 제 1 인터페이스 정보 또는 제 2 인터페이스 정보 중 어느 하나를 선택할 수 있다.Here, as an example, the reminder information may be set to one of the first interface information based on user reasons as shown in FIG. 12 and the second interface information based on learning influence as shown in FIG. 13 . That is, the cognitive ability development system 2 may provide a reminder as either the first interface information or the second interface information described above. Here, the cognitive ability development system 2 assigns weight to each of the above-described user status information, user-related information, and other information, derives each value, and selects either the first interface information or the second interface information. You can choose.
구체적인 일 예로, 사용자의 사유와 관련하여 학습 진행과 무관한 정보에 대해서는 포지티브(positive) 가중치가 제공될 수 있다. 반면, 학습 진행과 관련하여, 학습 영향에 따라 학습이 중단된 것으로 판단될 수 있는 정보에는 네가티브(negative) 가중치가 제공될 수 있다. 여기서, 인지 능력 개발 시스템(2)은 도출할 수 있는 정보들에 상술한 가중치를 적용하여 최종 값이 0보다 크면 제 1 인터페이스를 제공하고, 0보다 작으면 제 2 인터페이스를 제공할 수 있다. 즉, 인지 능력 개발 시스템(2)은 학습 중단과 관련된 다양한 정보들에 기초하여 리미안더 정보를 상이하게 설정할 수 있으며, 상술한 실시예로 한정되지 않는다.As a specific example, a positive weight may be provided for information unrelated to the learning progress in relation to the user's reasons. On the other hand, with regard to learning progress, a negative weight may be provided to information that may determine that learning has been stopped depending on learning influence. Here, the cognitive ability development system 2 may apply the above-described weight to the information that can be derived and provide a first interface if the final value is greater than 0, and provide a second interface if the final value is less than 0. That is, the cognitive ability development system 2 may set limiter information differently based on various information related to learning interruption, and is not limited to the above-described embodiment.
도 14는 일 실시예에 따라 사용자의 학습 순응도를 다른 사용자와 비교하여 리마인드를 제공하는 방법을 나타낸 도면이다. 도 14를 참조하면, 인지 능력 개발 시스템(2)은 사용자에게 리마인드 정보와 함께 추가 정보를 더 제공할 수 있다. 일 예로, 도 14를 참조하면, 인지 능력 개발 시스템(2)은 사용자가 학습과 관련된 정보에 기초하여 학습을 중단하는 것임을 인지할 수 있다. 여기서, 인지 능력 개발 시스템(2)은 학습과 관련된 리마인드 정보와 함께 추가 정보를 더 제공할 수다. 일 예로, 추가 정보는 사용자 학습과 관련하여 사용자의 학습 상태를 나타내는 정보(141)일 수 있다. 또한 일 예로, 사용자의 학습 상태 정보와 다른 사용자의 학습 상태를 비교한 정보(141)일 수 있으며, 해당 정보를 통해 사용자가 학습을 더 이어갈 수 있도록 할 수 있다. 즉, 추가 정보(141)는 사용자가 학습을 포기하지 않고 추가로 진행할 수 있도록 하는 정보일 수 있다. 여기서, 일 예로, 추가 정보(141)는 사용자에게 제공되는 보상 정보일 수 있으며, 이를 통해 사용자에게 학습 동기를 더 제공할 수 있다.Figure 14 is a diagram illustrating a method of providing a reminder by comparing a user's learning compliance with other users according to an embodiment. Referring to FIG. 14, the cognitive ability development system 2 may further provide additional information to the user along with reminder information. As an example, referring to FIG. 14, the cognitive ability development system 2 may recognize that the user is stopping learning based on information related to learning. Here, the cognitive ability development system 2 may provide additional information along with reminder information related to learning. As an example, the additional information may be information 141 indicating the user's learning status in relation to user learning. Also, as an example, it may be information 141 that compares the user's learning status information with that of other users, and the user can continue learning through the information. In other words, the additional information 141 may be information that allows the user to proceed further without giving up learning. Here, as an example, the additional information 141 may be compensation information provided to the user, through which further motivation for learning can be provided to the user.
또한, 일 예로, 인지 능력 개발 시스템(2)은 사용자의 학습 중단에 기초하여 계속하기와 종료하기 외에 리마인드(쉬었다 다시하기)를 바로 설정할 수 있다. 여기서, 인지 능력 개발 시스템(2)은 세부 항목을 제시하여 선택한 항목에 따라서 정해진 시간 후 메시지 발송 또는 자동으로 본 디지털 치료제 프로그램 재실행할 수 있다. 이때, 일 예로, 인지 능력 개발 시스템(2)은 디지털 치료제 프로그램을 재실행하기 전에 앞서 선택한 다시하기 세부항목에 따라서 질문 정보를 제공할 수 있다. 구체적인 일 예로, 인지 능력 개발 시스템(2)은 상술한 "5분후 다시하기" 리마인드 정보에 대해서 화장실 다녀왔는지 물어보고 대소변중 불편감 없었는지 문의 제공하고 사용자 입력 수신하여 데이터화 할 수 있다. 또 다른 일 예로, 리마인드 정보가 "식사 후 다시하기"인 경우, 인지 능력 개발 시스템(2)은 식사 정보를 사용자에게 문의하고, 사용자 입력을 데이터화할 수 있다.Additionally, as an example, the cognitive ability development system 2 may immediately set a reminder (rest and resume) in addition to continuing and ending based on the user's interruption of learning. Here, the cognitive ability development system 2 can present detailed items and send a message or automatically re-run the digital treatment program after a set period of time depending on the selected items. At this time, as an example, the cognitive ability development system 2 may provide question information according to previously selected replay details before re-executing the digital treatment program. As a specific example, the cognitive ability development system 2 may ask whether the user has been to the bathroom in response to the above-described “try again in 5 minutes” reminder information, provide an inquiry as to whether there was any discomfort while urinating, and receive user input and convert it into data. As another example, when the reminder information is “try again after eating,” the cognitive ability development system 2 may inquire about the meal information from the user and convert the user input into data.
또 다른 일 예로, 리마인드 정보가 상술한 "전화통화 후 다시하기"인 경우, 인지 능력 개발 시스템(2)은 누구와 어떤 통화했는지 기분이 어떤지 문의 제공하고 사용자 입력을 수신하여 데이터화 할 수 있다. 일 예로, 문의 제공과 사용자 입력은 텍스트 및 음성 중 적어도 어느 하나에 기초하여 수행될 수 있으며, 특정 형태로 한정되지 않는다. As another example, when the reminder information is the above-mentioned “Retry after phone call,” the cognitive ability development system 2 may provide inquiries about who and what kind of call was made and how the user feels, and may receive user input and convert it into data. As an example, inquiry provision and user input may be performed based on at least one of text and voice, and are not limited to a specific form.
또 다른 일 예로, 도 15a 및 도 15b는 일 실시예에 따라 리마인드에 기초하여 학습 재설정을 수행하는 방법을 나타낸 도면이다. 도 15a를 참조하면, 인지 능력 개발 시스템(2)은 학습 중단에 따라 사용자 입력을 디텍트할 수 있다. 이때, 인지 능력 개발 시스템(2)은 사용자에게 상술한 "계속하기(121)" 및 "종료하기(122)" 정보를 제공할 수 있으며, 사용자의 최종 학습 종료를 디텍트할 수 있다. 여기서, 인지 능력 개발 시스템(2)은 상술한 리마인드 정보를 사용자에게 제공하고, 상술한 "5분 후 다시 시작하기(123)" , "전화통화 후 다시하기(10분)(124)" , "식사 후 다시 시작하기(1시간 후)(125)" 및 "직접 입력(126)" 버튼을 리마인드 정보로 제공할 수 있다. 그 후, 인지 능력 개발 시스템(2)은 리마인드 정보에 대응하는 사용자 입력을 디텍트하고, 대응되는 정보에 따라 디지털 치료제 재설정 알림과 프로그램 재실행 여부를 결정할 수 있다. 이때, 일 예로, 도 15b를 참조하면, 인지 능력 개발 시스템(2)은 알람 및 재실행 정보에 기초하여 디지털 치료제를 재실행할 수 있다. 여기서, 인지 능력 개발 시스템(2)은 선택된 리마인드 관련 정보를 사용자에게 제공할 수 있다. 일 예로, 인지 능력 개발 시스템(2)은 식사에 따른 사용자의 학습 중단에 기초하여 "식사를 종료하셨습니까(151)"에 대한 정보를 제공하고, 사용자 입력을 디텍트할 수 있다. 그 후, 인지 능력 개발 시스템(2)은 "어떤 메뉴를 드셨습니까(152)" 및 "학습을 다시 시작하시겠습니까(153)"와 같이 학습 재시작에 대한 정보와 사용자 개인 정보를 데이터화 함으로서 학습 효과를 향상시킬 수 있다. As another example, FIGS. 15A and 15B are diagrams illustrating a method of performing learning reset based on a reminder according to an embodiment. Referring to FIG. 15A, the cognitive ability development system 2 can detect user input according to learning interruption. At this time, the cognitive ability development system 2 can provide the above-described “Continue (121)” and “End (122)” information to the user and detect the user’s final completion of learning. Here, the cognitive ability development system 2 provides the above-described reminder information to the user, and the above-mentioned "Restart after 5 minutes (123)", "Restart after phone call (10 minutes) (124)", " The “Restart after meal (1 hour later) (125)” and “Direct input (126)” buttons can be provided as reminder information. Afterwards, the cognitive ability development system 2 can detect user input corresponding to the reminder information and determine whether to notify the digital treatment reset and re-run the program according to the corresponding information. At this time, as an example, referring to FIG. 15B, the cognitive ability development system 2 may re-execute the digital therapeutic agent based on the alarm and re-execution information. Here, the cognitive ability development system 2 may provide selected reminder-related information to the user. As an example, the cognitive ability development system 2 may provide information about “Have you finished eating (151)” based on the user’s learning interruption due to eating and detect user input. Afterwards, the cognitive ability development system (2) improves the learning effect by converting information about learning restart and user personal information into data such as “Which menu did you eat (152)” and “Do you want to start learning again (153)” You can do it.
도 16는 일 실시예에 따라 리마인드에 기초하여 학습 재설정을 수행하는 방법을 나타낸 도면이다. 도 16을 참조하면, 인지 능력 개발 시스템(2)은 사용자 학습 중단에 기초하여 장기적인 스케줄 설정 정보를 제공할 수 있다. 일 예로, 사용자는 상술한 바와 같이 단기간에 학습을 중단하는 것이 아니라 장기간으로 학습을 중단할 수 있다. 일 예로, 사용자에게 학습을 중단해야 할 사유가 발생하여 시간 및 날짜 변경이 필요한 경우에 인지 능력 개발 시스템(2)은 장기 계획에 대한 정보(161, 162)를 사용자에게 제공하고, 학습을 재설정할 수 있다. FIG. 16 is a diagram illustrating a method of performing learning reset based on a reminder according to an embodiment. Referring to FIG. 16, the cognitive ability development system 2 may provide long-term schedule setting information based on user learning cessation. As an example, the user may stop learning for a long period of time rather than in a short period of time as described above. As an example, if the user has a reason to stop learning and needs to change the time and date, the cognitive ability development system 2 provides the user with information 161, 162 about the long-term plan and allows the user to reset learning. You can.
여기서, 일 예로, 인지 능력 개발 시스템(2)은 사용자에게 제공하는 알림을 사용자 상태를 고려하여 제공할 수 있다. 구체적인 일 예로, 인지 능력 개발 시스템(2)은 사용자가 설정한 날짜 및 시간에 맞춰 기 설정된 날짜 또는 시간 전에 알림을 제공할 수 있다. 다만, 인지 능력 개발 시스템(2)에 의해 제공되는 디지털 치료제는 지속적으로 학습을 수행하여야 효과가 발생할 수 있다는 점을 고려하여 인지 능력 개발 시스템(2)은 사용자의 상태를 고려하여 알림을 제공할 수 있다. 구체적으로, 인지 능력 개발 시스템(2)은 사용자 장치(1)와 연동될 수 있다. 여기서, 사용자는 학습을 장기적으로 미뤄두었지만, 사용자가 사용자 장치(1)를 재사용하거나 사용을 시작한 경우라면 사용자가 학습을 수행하기에 충분히 준비된 상태일 수 있다. 따라서, 인지 능력 개발 시스템(2)은 사용자가 사용자 장치(1)를 시작 또는 재시작하는 경우에 알람을 제공하여 디지털 치료제 학습을 수행하도록 할 수 있다. 또 다른 일 예로, 인지 능력 개발 시스템(2)은 사용자 장치(1)에 기초하여 사용자 학습을 강제할 수 있다. 일 예로, 사용자가 사용자 장치(1)를 사용하고자 시작 또는 재시작하는 경우에는 사용자가 학습할 준비가 된 상태이므로 인지 능력 개발 시스템(2)은 사용자 장치(1) 시작과 함께 상술한 콘텐츠로서 과제를 자동으로 실행할 수 있다. 즉, 사용자는 사용자 장치(1)를 시작하기에 앞서 디지털 치료제로서 제공되는 과제를 수행하여야 사용자 장치(1)를 사용할 수 있다. 이를 통해, 인지 능력 개발 시스템(2)은 사용자가 학습을 지속적으로 수행하도록 할 수 있으며, 상술한 실시예로 한정되지 않는다.Here, as an example, the cognitive ability development system 2 may provide notifications to the user in consideration of the user's status. As a specific example, the cognitive ability development system 2 may provide a notification before a preset date or time according to the date and time set by the user. However, considering that the digital treatment provided by the cognitive ability development system (2) can be effective only after continuous learning, the cognitive ability development system (2) can provide notifications in consideration of the user's condition. there is. Specifically, the cognitive ability development system 2 may be linked with the user device 1. Here, the user has postponed learning for a long time, but if the user reuses or begins using the user device 1, the user may be sufficiently prepared to perform learning. Accordingly, the cognitive ability development system 2 may provide an alarm when the user starts or restarts the user device 1 to perform digital therapeutic learning. As another example, the cognitive ability development system 2 may force user learning based on the user device 1. For example, when the user starts or restarts to use the user device 1, the user is ready to learn, so the cognitive ability development system 2 performs the task as the above-described content upon starting the user device 1. It can run automatically. In other words, before starting the user device 1, the user must perform tasks provided as a digital therapeutic before using the user device 1. Through this, the cognitive ability development system 2 can enable the user to continuously perform learning, and is not limited to the above-described embodiment.
도 17는 일 실시예에 따라 디지털 치료제 학습 순응도를 높이기 위한 리마인드 방법을 나타낸 순서도이다. 도 17을 참조하면, 콘텐츠에 기초하여 사용자 학습을 진행할 수 있다.(S1710) 그 후, 사용자 학습 중단 입력을 디텍트하고(S1720), 사용자 학습 중단 시점을 확인할 수 있다.(S1730) 이때, 사용자 학습 중단 시점에 기초하여 사용자 학습 리마인드 설정을 수행할 수 있으며, 이는 상술한 바와 같다.(S1740)Figure 17 is a flowchart showing a reminder method to increase compliance with learning digital therapeutics according to an embodiment. Referring to FIG. 17, user learning can be performed based on the content. (S1710) After that, the user learning interruption input can be detected (S1720) and the user learning stopping point can be confirmed. (S1730) At this time, the user User learning reminder settings can be performed based on the time of learning interruption, as described above (S1740).
여기서, 상술한 동작은 인지 능력 개발 서버(2) 또는 인지 능력 개발 시스템(2)은 콘텐츠 제공 모듈(21), 입력 모듈(22), 분석 모듈(23) 및 머신러닝 모듈(24)를 포함할 수 있다. 이때, 콘텐츠 제공 모듈(21)에 기초하여 콘텐츠를 포함하는 사용자 학습을 진행하고, 입력 모듈(22)에 기초하여 사용자 학습 중단 입력을 디텍트하고, 사용자 학습 중단 시점을 확인하고, 및 사용자 학습 리마인드 설정을 수행할 수 있다. Here, in the above-described operation, the cognitive ability development server 2 or the cognitive ability development system 2 may include a content provision module 21, an input module 22, an analysis module 23, and a machine learning module 24. You can. At this time, user learning including content is performed based on the content provision module 21, user learning interruption input is detected based on the input module 22, user learning interruption point is confirmed, and user learning reminder is provided. You can perform settings.
이때, 일 예로, 사용자 학습은 적어도 하나의 대과제 및 대과제 내의 적어도 하나 이상의 세부과제를 포함하고, 사용자 학습은 적어도 하나의 대과제를 모두 완료하여야 학습이 완료될 수 있다. 일 예로, 대과제는 상술한 인지과제, 운동과제, 영양과제일 수 있다. 일 예로, 대과제는 상술한 혈관질환 관리, 인지 훈련, 운동, 영양 관리 및 동기 강화의 5개의 인지 영역으로 구분되는 과제일 수 있으며, 특정 실시예로 한정되지 않는다.At this time, as an example, user learning includes at least one major task and at least one detailed task within the major task, and user learning can be completed only when at least one major task is completed. For example, the major task may be the cognitive task, exercise task, or nutritional task described above. For example, the major task may be a task divided into the five cognitive areas of vascular disease management, cognitive training, exercise, nutritional management, and motivation enhancement, and is not limited to a specific embodiment.
또한, 일 예로, 사용자 학습 중단 시점을 디텍트하는 경우, 사용자 학습 중단 시점이 대과제 내의 적어도 하나 이상의 세부과제를 완료한 시점인지 또는 적어도 하나 이상의 세부과제를 수행하는 도중의 시점인지 여부를 디텍트할 수 있다. 이때, 사용자 학습 중단 시점에 따라 사용자 학습 리마인드 설정에 기초하여 상이한 리마인드 정보를 제공할 수 있다. 일 예로, 사용자 학습 중단 시점이 대과제 내의 적어도 하나 이상의 세부과제를 완료한 시점인 경우, 사용자에게 학습의 계속 여부 및 종료 여부를 문의하는 리마인드 정보만을 제공할 수 있다. 즉, 상술한 바와 같이 "계속하기"와 "종료하기" 정보만을 제공할 수 있다. 반면, 사용자 학습 중단 시점이 세부과제 도중인 경우, 사용자에게 학습의 계속 여부 및 종료 여부를 문의하는 리마인드 정보에 학습 재시작 관련 리마인드 정보를 더 제공할 수 있다. 또한, 사용자 학습 중단 시점이 세부과제 도중인 경우, 사용자 개인 사유 또는 학습 진행 영향 사유 중 어느 하나에 기초하여 학습이 중단됨을 디텍트할 수 있다. In addition, as an example, when detecting the point in which user learning is interrupted, it is detected whether the point in time when the user stops learning is when at least one or more detailed tasks within the main task are completed or when at least one or more detailed tasks are being performed. can do. At this time, different reminder information may be provided based on the user learning reminder setting depending on when the user stops learning. For example, if the time when the user stops learning is when at least one detailed task within the major task is completed, only reminder information inquiring about whether to continue or end learning may be provided to the user. That is, as described above, only “Continue” and “Quit” information can be provided. On the other hand, if the user's learning interruption point is during a detailed task, reminder information related to learning restart can be provided in addition to the reminder information asking the user whether to continue or end learning. Additionally, if the user's learning interruption point is during a detailed task, it is possible to detect that learning is interrupted based on either the user's personal reasons or reasons affecting the learning progress.
이때, 사용자 개인 사유에 기초하여 학습이 중단된 경우, 제 1 인터페이스에 기초하여 리마인드 정보를 제공하고, 학습 진행 영향 사유에 기초하여 학습이 중단된 경우, 제 2 인터페이스에 기초하여 리마인드 정보를 제공할 수 있다. 또한, 제 1 인터페이스에 기초하여 제공되는 리마인드 정보는 사용자의 학습 재시작 관련 리마인드 정보이고, 제 2 인터페이스에 기초하여 제공되는 리마인드 정보는 사용자의 학습 재시작 관련 리마인드 정보 및 학습 난이도 조정 관련 리마인드 정보일 수 있으며, 이는 상술한 바와 같다. 또한, 사용자 개인 사유 또는 학습 진행 영향 사유 중 어느 하나에 기초하여 학습이 중단됨을 디텍트하는 경우, 사용자 상태 정보를 더 도출하고, 사용자 상태 정보에 기초하여 제 1 인터페이스 또는 제 2 인터페이스를 결정할 수 있다. 여기서, 사용자 상태 정보는 사용자의 얼굴, 사용자의 손 및 사용자의 신체 중 적어도 어느 하나 이상을 트래킹한 정보를 통해 획득될 수 있으며, 상술한 상태 정보일 수 있다. 또한, 사용자 학습 리마인드가 설정된 경우, 리마인드 설정 정보에 기초하여 기 설정된 시간 후에 사용자 학습 진행에 대한 알림을 제공하거나 사용자 학습 진행을 재실행할 수 있다. 여기서, 사용자 학습 리마인드 설정에 기초하여 사용자가 사용자 학습을 재시작하는 경우, 사용자에게 리마인드 설정 관련 정보가 제공되고, 사용자에 대한 입력을 디텍트하여 리마인드 설정 관련 정보를 데이터화 한 후 사용자 학습을 재시작할 수 있다.At this time, if learning is stopped based on the user's personal reasons, reminder information is provided based on the first interface, and if learning is stopped based on reasons affecting the learning progress, reminder information is provided based on the second interface. You can. In addition, the reminder information provided based on the first interface may be reminder information related to the user's learning restart, and the reminder information provided based on the second interface may be reminder information related to the user's learning restart and reminder information related to learning difficulty adjustment, , which is the same as described above. In addition, when it is detected that learning is interrupted based on either the user's personal reasons or reasons affecting the learning progress, user status information can be further derived, and the first interface or the second interface can be determined based on the user status information. . Here, the user status information may be obtained through tracking information on at least one of the user's face, the user's hands, and the user's body, and may be the status information described above. Additionally, when a user learning reminder is set, a notification about the user learning progress may be provided or the user learning progress may be re-executed after a preset time based on the reminder setting information. Here, when the user restarts user learning based on the user learning reminder setting, information related to the reminder setting is provided to the user, and user learning can be restarted after detecting the user's input and converting the information related to the reminder setting into data. there is.
이상에서 설명한 실시예들은 적어도 부분적으로 컴퓨터 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 실시예들을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다.The embodiments described above can be implemented at least partially as a computer program and recorded on a computer-readable recording medium. Computer-readable recording media on which programs for implementing the embodiments are recorded include all types of recording devices that store data that can be read by a computer. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, and optical data storage devices. Additionally, computer-readable recording media may be distributed across computer systems connected to a network, and computer-readable codes may be stored and executed in a distributed manner. Additionally, functional programs, codes, and code segments for implementing this embodiment can be easily understood by those skilled in the art to which this embodiment belongs.
이상에서 살펴본 본 명세서는 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 명세서의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 명세서의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해서 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 포함하도록 정해져야 할 것이다.Although the above-described specification has been described with reference to the embodiments shown in the drawings, these are merely illustrative examples, and those skilled in the art will understand that various modifications and modifications of the embodiments are possible therefrom. However, such modifications should be considered within the scope of technical protection of this specification. Therefore, the true technical protection scope of the present specification should be determined to include other implementations, other embodiments, and those equivalent to the claims according to the technical spirit of the appended claims.
본 명세서는 디지털 치료제 학습 순응도를 사용자 학습 진행 상태를 통해 확인하는 방법을 제공하는 발명에 관한 것으로서 산업상 이용 가능하다.This specification relates to an invention that provides a method of checking digital therapeutic learning compliance through the user's learning progress, and can be used industrially.

Claims (12)

  1. 디지털 치료제 학습 순응도를 높이기 위한 리마인드 방법에 있어서,In the reminder method to increase compliance with learning digital therapeutics,
    콘텐츠에 기초하여 사용자 학습을 진행하는 단계;Proceeding with user learning based on content;
    상기 사용자 학습 중단 입력을 디텍트하는 단계;Detecting the user learning interruption input;
    상기 사용자 학습 중단 시점을 확인하는 단계; 및Confirming when the user stops learning; and
    상기 사용자 학습 리마인드 설정을 수행하는 단계를 포함하는, 리마인드 방법.A reminder method comprising performing the user learning reminder setting.
  2. 제 1 항에 있어서,According to claim 1,
    상기 사용자 학습은 적어도 하나의 대과제 및 상기 대과제 내의 적어도 하나 이상의 세부과제를 포함하고, 상기 사용자 학습은 상기 적어도 하나의 대과제를 모두 완료하여야 학습이 완료되는, 리마인드 방법.The reminder method, wherein the user learning includes at least one major task and at least one detailed task within the major task, and the user learning is completed only when all of the at least one major task is completed.
  3. 제 2 항에 있어서,According to claim 2,
    상기 사용자 학습 중단 시점을 디텍트하는 단계는 상기 사용자 학습 중단 시점이 상기 대과제 내의 상기 적어도 하나 이상의 세부과제를 완료한 시점인지 또는 상기 적어도 하나 이상의 세부과제를 수행하는 도중의 시점인지 여부를 디텍트하고, The step of detecting the user learning interruption point detects whether the user learning interruption point is a point in time when the at least one or more detailed tasks in the main task are completed or a point in the middle of performing the at least one or more detailed tasks. do,
    상기 사용자 학습 중단 시점에 따라 상기 사용자 학습 리마인드 설정에 기초하여 상이한 리마인드 정보를 제공하는, 리마인드 방법.A reminder method that provides different reminder information based on the user learning reminder setting depending on when the user stops learning.
  4. 제 3 항에 있어서,According to claim 3,
    상기 사용자 학습 중단 시점이 상기 대과제 내의 상기 적어도 하나 이상의 세부과제를 완료한 시점인 경우, 상기 사용자에게 상기 학습의 계속 여부 및 종료 여부를 문의하는 리마인드 정보만을 제공하고,If the time when the user's learning is stopped is when the at least one detailed task in the major task is completed, only reminder information is provided to the user to inquire whether to continue or end the learning,
    상기 사용자 학습 중단 시점이 상기 세부과제 도중인 경우, 상기 사용자에게 상기 학습의 상기 계속 여부 및 상기 종료 여부를 문의하는 리마인드 정보에 상기 학습 재시작 관련 리마인드 정보를 더 제공하는, 리마인드 방법.When the time when the user's learning is stopped is during the detailed task, a reminder method that further provides reminder information related to restarting the learning in addition to reminder information inquiring about whether the learning continues and ends to the user.
  5. 제 4 항에 있어서,According to claim 4,
    상기 사용자 학습 중단 시점이 상기 세부과제 도중인 경우, 사용자 개인 사유 또는 학습 진행 영향 사유 중 어느 하나에 기초하여 상기 학습이 중단됨을 디텍트하고, 상기 사용자 개인 사유에 기초하여 상기 학습이 중단된 경우, 제 1 인터페이스에 기초하여 상기 리마인드 정보를 제공하고, 상기 학습 진행 영향 사유에 기초하여 상기 학습이 중단된 경우, 제 2 인터페이스에 기초하여 상기 리마인드 정보를 제공하는, 리마인드 방법.If the user's learning interruption point is during the detailed task, it is detected that the learning is stopped based on either the user's personal reason or the learning progress impact reason, and if the learning is stopped based on the user's personal reason, A reminder method that provides the reminder information based on a first interface, and provides the reminder information based on a second interface when the learning is stopped based on reasons affecting the learning progress.
  6. 제 5 항에 있어서,According to claim 5,
    상기 제 1 인터페이스에 기초하여 제공되는 상기 리마인드 정보는 상기 사용자의 학습 재시작 관련 리마인드 정보이고,The reminder information provided based on the first interface is reminder information related to the user's learning restart,
    상기 제 2 인터페이스에 기초하여 제공되는 상기 리마인드 정보는 상기 사용자의 상기 학습 재시작 관련 리마인드 정보 및 학습 난이도 조정 관련 리마인드 정보인, 리마인드 방법.The reminder information provided based on the second interface is reminder information related to the user's learning restart and reminder information related to adjustment of learning difficulty.
  7. 제 5 항에 있어서,According to claim 5,
    상기 사용자 개인 사유 또는 상기 학습 진행 영향 사유 중 어느 하나에 기초하여 상기 학습이 중단됨을 디텍트하는 경우, 사용자 상태 정보를 더 도출하고, 상기 사용자 상태 정보에 기초하여 상기 제 1 인터페이스 또는 상기 제 2 인터페이스를 결정하는, 리마인드 방법.When detecting that the learning is interrupted based on either the user's personal reason or the learning progress impact reason, user status information is further derived, and based on the user status information, the first interface or the second interface How to decide, remind.
  8. 제 7 항에 있어서,According to claim 7,
    상기 사용자 상태 정보는 사용자의 얼굴, 사용자의 손 및 상기 사용자의 신체 중 적어도 어느 하나 이상을 트래킹한 정보를 통해 획득되는, 리마인드 방법.A reminder method, wherein the user status information is obtained through tracking information on at least one of the user's face, the user's hands, and the user's body.
  9. 제 1 항에 있어서,According to claim 1,
    상기 사용자 학습 리마인드가 설정된 경우, 상기 리마인드 설정 정보에 기초하여 기 설정된 시간 후에 상기 사용자 학습 진행에 대한 알림을 제공하거나 상기 사용자 학습 진행을 재실행하는, 리마인드 방법.When the user learning reminder is set, a reminder method for providing a notification about the user learning progress or re-executing the user learning progress after a preset time based on the reminder setting information.
  10. 제 9 항에 있어서,According to clause 9,
    상기 사용자 학습 리마인드 설정에 기초하여 상기 사용자가 상기 사용자 학습을 재시작하는 경우, 상기 사용자에게 리마인드 설정 관련 정보가 제공되고, 상기 사용자에 대한 입력을 디텍트하여 상기 리마인드 설정 관련 정보를 데이터화 한 후 상기 사용자 학습을 재시작하는, 리마인드 방법.When the user restarts the user learning based on the user learning reminder setting, reminder setting-related information is provided to the user, and after detecting the input for the user and converting the reminder setting-related information into data, the user Remind method to restart learning.
  11. 하드웨어와 결합되어 제1항 내지 제10항 중 어느 한 항에 따른 방법을 실행하도록 컴퓨터로 판독 가능한 매체에 저장된 컴퓨터 프로그램.A computer program stored on a computer-readable medium coupled with hardware to execute the method according to any one of claims 1 to 10.
  12. 디지털 치료제 학습 순응도를 높이기 위한 리마인드를 수행하는 인지 능력 개발 서버에 있어서, In the cognitive ability development server that performs reminders to increase compliance with learning digital therapeutics,
    상기 인지 능력 개발 서버는,The cognitive ability development server,
    콘텐츠 제공 모듈;content delivery module;
    입력 모듈;input module;
    분석 모듈; 및 analysis module; and
    머신러닝 모듈을 포함하고,Includes a machine learning module,
    상기 콘텐츠 제공 모듈에 기초하여 콘텐츠를 포함하는 사용자 학습을 진행하고,Proceed with user learning including content based on the content provision module,
    상기 입력 모듈에 기초하여 상기 사용자 학습 중단 입력을 디텍트하고,Detect the user learning interruption input based on the input module,
    상기 사용자 학습 중단 시점을 확인하고, 및Confirm the point at which the user stops learning, and
    상기 사용자 학습 리마인드 설정을 수행하는, 리마인드를 수행하는 인지 능력 개발 서버.A cognitive ability development server that performs a reminder and performs the user learning reminder setting.
PCT/KR2023/010809 2022-08-05 2023-07-26 Remind method and apparatus for increasing compliance with learning digital therapeutics WO2024029820A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0097966 2022-08-05
KR1020220097966A KR20240020026A (en) 2022-08-05 2022-08-05 The remind method and apparatus for increasing digital therapeutics learning compliance

Publications (1)

Publication Number Publication Date
WO2024029820A1 true WO2024029820A1 (en) 2024-02-08

Family

ID=89849349

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/010809 WO2024029820A1 (en) 2022-08-05 2023-07-26 Remind method and apparatus for increasing compliance with learning digital therapeutics

Country Status (2)

Country Link
KR (1) KR20240020026A (en)
WO (1) WO2024029820A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090097054A (en) * 2008-03-10 2009-09-15 김병훈 Device and method for providing learning contents using portable terminal
KR20100014015A (en) * 2008-08-01 2010-02-10 주식회사대교 Electronical studying providing method and electronical studying system
KR20110022856A (en) * 2009-08-28 2011-03-08 김주엽 Language training system for image association
US20200402420A1 (en) * 2013-10-31 2020-12-24 Spring River Holdings Llc Computing technologies for diagnosis and therapy of language-related disorders
KR20210086246A (en) * 2019-12-31 2021-07-08 주식회사 에스알파테라퓨틱스 Digital apparatus and application for treating mild cognitive impairment and dementia

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101295187B1 (en) 2012-01-20 2013-08-09 (주)가바플러스 Improvement-effect of brain-function system for dementia prevention and method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090097054A (en) * 2008-03-10 2009-09-15 김병훈 Device and method for providing learning contents using portable terminal
KR20100014015A (en) * 2008-08-01 2010-02-10 주식회사대교 Electronical studying providing method and electronical studying system
KR20110022856A (en) * 2009-08-28 2011-03-08 김주엽 Language training system for image association
US20200402420A1 (en) * 2013-10-31 2020-12-24 Spring River Holdings Llc Computing technologies for diagnosis and therapy of language-related disorders
KR20210086246A (en) * 2019-12-31 2021-07-08 주식회사 에스알파테라퓨틱스 Digital apparatus and application for treating mild cognitive impairment and dementia

Also Published As

Publication number Publication date
KR20240020026A (en) 2024-02-14

Similar Documents

Publication Publication Date Title
Klin et al. Visual fixation patterns during viewing of naturalistic social situations as predictors of social competence in individuals with autism
Dykes et al. Why do patients in acute care hospitals fall? Can falls be prevented?
Schnakers et al. Impact of aphasia on consciousness assessment: a cross-sectional study
WO2020251135A1 (en) Emotion recognition method and emotion recognition device using same
WO2019013456A1 (en) Method and device for tracking and monitoring seizure on basis of video
Lancioni et al. Camera-based microswitch technology to monitor mouth, eyebrow, and eyelid responses of children with profound multiple disabilities
Amoako et al. Non‐medical interventions for individuals with Rett syndrome: A systematic review
CN114974499A (en) System and method for recommending intervention scheme of cognitive disorder patient
WO2021075641A1 (en) Digital apparatus and application for myopia therapy
Noiret et al. Visual scanning behavior during processing of emotional faces in older adults with major depression
CN113096808A (en) Event prompting method and device, computer equipment and storage medium
Klatt et al. Vestibular physical therapy in individuals with cognitive impairment: a theoretical framework
WO2024029820A1 (en) Remind method and apparatus for increasing compliance with learning digital therapeutics
WO2022177046A1 (en) System and method for development of cognitive ability, and computer program therefor
Drummond et al. The significance of blushing for fair-and dark-skinned people
Zanotti Handle with care: Caring for children with autism spectrum disorder in the ED
Carmona et al. Development and preliminary validity study of a modified version of the upper extremity Fugl-Meyer assessment for use in telerehabilitation
Wermelinger et al. How experience shapes infants' communicative behaviour: comparing gaze following in infants with and without pandemic experience
WO2024071711A1 (en) Method and apparatus for managing blood vessels by monitoring smoking
CN112487980B (en) Micro-expression-based treatment method, device, system and computer-readable storage medium
WO2022215764A1 (en) Digital apparatus and application for treatment of mild cognitive impairment and dementia
Miró et al. Pain-related attitudes and functioning in elderly primary care patients
Mohammad et al. Perceptual and motor inhibition in individuals with vestibular disorders
Lancioni et al. Two persons with multiple disabilities use camera-based microswitch technology to control stimulation with small mouth and eyelid responses
WO2023033545A1 (en) Device, method and program for searching and training preferred retinal locus of patient with visual field damage

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23850326

Country of ref document: EP

Kind code of ref document: A1