WO2024071711A1 - 흡연 모니터링을 통한 혈관 관리 방법 및 장치 - Google Patents

흡연 모니터링을 통한 혈관 관리 방법 및 장치 Download PDF

Info

Publication number
WO2024071711A1
WO2024071711A1 PCT/KR2023/013133 KR2023013133W WO2024071711A1 WO 2024071711 A1 WO2024071711 A1 WO 2024071711A1 KR 2023013133 W KR2023013133 W KR 2023013133W WO 2024071711 A1 WO2024071711 A1 WO 2024071711A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
smoking
cognitive ability
information
ability development
Prior art date
Application number
PCT/KR2023/013133
Other languages
English (en)
French (fr)
Inventor
한승현
Original Assignee
(주) 로완
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 로완 filed Critical (주) 로완
Publication of WO2024071711A1 publication Critical patent/WO2024071711A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Definitions

  • the present invention relates to a method and device for blood vessel management through smoking monitoring. More specifically, it relates to a method and device for monitoring smoking status based on a user's location information and managing blood vessels using the monitoring results.
  • the dementia population Due to the effects of this rapid aging, the dementia population is rapidly increasing. As of 2010, the global dementia population reached approximately 35.6 million, and by 2050, the dementia population is expected to increase approximately three-fold to 115.4 million. In Korea, the prevalence of dementia by future years, estimated based on age, gender, education, and residential area standardized dementia prevalence based on the 2005 population census, is 9.08% in 2012, 9.74% in 2020, 9.61% in 2030, and 2040. It is predicted that the dementia population will increase to 11.21% and 13.17% in 2050, exceeding 1 million in 2027, and reaching 2.12 million in 2050.
  • the social cost of dementia is estimated to exceed the combined cost of all three diseases - cancer, heart disease, and stroke.
  • the total annual medical cost due to dementia was KRW 810 billion as of 2010, ranking second among geriatric diseases, 1 Dementia treatment costs per person are 3.1 million won per year, the highest among the five major chronic diseases. Additionally, Korea's total national dementia cost is estimated to double every 10 years to 8.7 trillion won per year.
  • Registered Patent Publication No. 10-1295187 is a brain function improvement system and its operation that performs the function of preventing dementia by giving the user a level of achievement according to the score obtained according to the user's feedback regarding the selected content. Disclose the method.
  • This specification relates to a method and device for blood vessel management through smoking monitoring.
  • This specification relates to a method and device for monitoring smoking status based on a user's location information and managing blood vessels using the monitoring results.
  • This specification relates to a method and device for monitoring whether a user smokes and how much he or she smokes, determining digital therapeutic content that takes this into account, and providing the content to the user.
  • This specification provides a method for constructing a smoking possibility map for each area, determining the user's smoking possibility based on movement path tracking using user location information, and providing content for vascular health management in consideration of the determined user's smoking status; and It's about the device.
  • a blood vessel management method through smoking monitoring performed by a cognitive ability development server includes collecting location information of a user, determining whether the user is smoking based on the location information, and providing digital therapeutic content based on whether the user smokes.
  • the cognitive ability development server that performs the blood vessel management method through smoking monitoring according to an embodiment of the present specification, collects location information of the user and determines whether the user is smoking based on the location information. It may include a monitoring module that determines, an analysis module that determines digital therapeutic content based on whether the user smokes, a content provision module that provides the determined digital therapeutic content, and an input module that receives user feedback.
  • the step of constructing a smoking possibility map for each area divided into a plurality of areas may be further included based on the possibility of determining whether or not the user is smoking according to the user's location.
  • the smoking availability map for each area may be determined based on one or more of the location of the road, the type of building adjacent to the sidewalk, the type of structure, and the presence or absence of a smoking booth.
  • the step of determining whether to smoke based on the user's location information includes using the smoking possibility map for each area, the user's location, and the residence time for the user's location. It may include determining a smoking probability, and determining that the user is smoking if the smoking probability is greater than or equal to a preset reference value.
  • the step of determining the probability of smoking of the user includes, when receiving information that the user is on a call, lowering the probability of smoking if the location of the user is not a smoking booth, and reducing the probability of smoking if the location of the user is not a smoking booth. In this case, it may include maintaining the probability of smoking.
  • the method may further include confirming whether the user is smoking, and updating the smoking possibility map for each area according to the result of the confirmation.
  • the user's suction intensity is estimated based on the degree of change in the user's blood pressure and electrocardiogram, and the user's suction intensity is estimated based on the user's suction intensity and the user's residence time.
  • a step of estimating the user's smoking amount may be further included.
  • the digital therapeutic content may set the user's smoking cessation task and include smoking education and a smoking cessation goal achievement plan as content contents.
  • the present specification may provide a method and device for managing blood vessels through smoking monitoring.
  • This specification can provide a method and device for monitoring smoking status using a user's location information and managing blood vessels using the monitoring results.
  • This specification can provide digital therapeutic content by monitoring whether the user smokes and how much he or she smokes.
  • This specification builds a smoking possibility map for each area, determines the user's smoking possibility based on movement path tracking using user location information, and provides content for vascular health management by considering the user's smoking status.
  • FIG. 1 is a schematic block diagram of a cognitive ability development system according to an embodiment.
  • Figure 2 is a flowchart showing each step of a cognitive ability development method according to an embodiment.
  • Figure 3 is a conceptual diagram illustrating a data processing process by a cognitive ability development method according to an embodiment.
  • Figure 4 is a diagram showing a method for tracking a user's viewpoint according to an embodiment.
  • FIG. 5A is a diagram illustrating a method of extracting user information and upgrading a digital therapeutic product based on user viewpoint tracking according to an embodiment.
  • Figure 5b is a diagram illustrating a method of extracting user information and upgrading a digital therapeutic product based on user viewpoint tracking according to an embodiment.
  • FIG. 5C is a diagram illustrating a method of extracting user information and upgrading a digital therapeutic product based on user viewpoint tracking according to an embodiment.
  • FIG. 5D is a diagram illustrating a method of extracting user information and upgrading a digital therapeutic product based on user viewpoint tracking according to an embodiment.
  • FIG. 6A is a diagram illustrating a method for tracking a user's hand and enhancing a digital therapeutic agent according to an embodiment.
  • FIG. 6B is a diagram illustrating a method for tracking a user's hand and enhancing a digital therapeutic agent according to an embodiment.
  • FIG. 6C is a diagram illustrating a method for tracking a user's hand and improving digital therapeutics according to an embodiment.
  • FIG. 7A is a diagram illustrating a method for tracking the user's viewpoint and hand and upgrading a digital therapeutic agent according to an embodiment.
  • Figure 7b is a diagram illustrating a method for tracking the user's viewpoint and hand and upgrading a digital therapeutic agent according to an embodiment.
  • FIG. 8A is a diagram illustrating a method of adjusting a virtual image based on tracking according to an embodiment.
  • FIG. 8B is a diagram illustrating a method of adjusting a virtual image based on tracking according to an embodiment.
  • FIG. 9A is a diagram illustrating a method of determining user status based on tracking according to an embodiment.
  • FIG. 9B is a diagram illustrating a method of determining user status based on tracking according to an embodiment.
  • Figure 10 is a flowchart showing a method for managing blood vessels through smoking monitoring according to an embodiment.
  • Figure 11 is a diagram illustrating a map divided into sections to determine the possibility of smoking in each area according to an embodiment.
  • Figure 12 is a diagram illustrating a method of checking whether a user smokes and the amount of smoking according to an embodiment.
  • FIG. 13A is a diagram illustrating a method of displaying a user's smoking management status according to an embodiment.
  • FIG. 13B is a diagram illustrating a method of providing a status screen for managing a user's blood vessels according to an embodiment.
  • FIG. 14A is a diagram illustrating a method of providing a blood vessel education menu for a user's blood vessel management according to an embodiment.
  • Figure 14b is a diagram illustrating a method of providing a smoking education menu for the user's blood vessel management according to an embodiment.
  • a component when a component is said to be “connected,” “coupled,” or “connected” to another component, this refers not only to a direct connection relationship, but also to an indirect relationship where another component exists in between. Connection relationships may also be included.
  • a component when a component is said to "include” or “have” another component, this does not mean excluding the other component, but may further include another component, unless specifically stated to the contrary. .
  • first, second, etc. are used only for the purpose of distinguishing one component from other components, and do not limit the order or importance of components unless specifically mentioned. No. Therefore, within the scope of the embodiments of the present specification, the first component in an embodiment may be referred to as a second component in another embodiment, and similarly, the second component in the embodiment may be referred to as the first component in another embodiment. It may also be called.
  • distinct components are intended to clearly explain each feature, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to form one hardware or software unit, or one component may be distributed to form a plurality of hardware or software units. Therefore, even if not specifically mentioned, such integrated or distributed embodiments are also included in the scope of the embodiments of the present specification.
  • a network may be a concept that includes both wired and wireless networks.
  • the network may refer to a communication network in which data exchange between devices, systems, and devices can be performed, and is not limited to a specific network.
  • Embodiments described herein may have aspects that are entirely hardware, partly hardware and partly software, or entirely software.
  • “unit,” “device,” or “system” refers to computer-related entities such as hardware, a combination of hardware and software, or software.
  • a part, module, device, or system refers to a running process, processor, object, executable, thread of execution, program, and/or computer. It may be a (computer), but is not limited thereto.
  • both an application running on a computer and the computer may correspond to a part, module, device, or system in the present specification.
  • the device may be a mobile device such as a smartphone, tablet PC, wearable device, and HMD (Head Mounted Display), as well as a fixed device such as a PC or a home appliance with a display function.
  • the device may be a cluster within a vehicle or an Internet of Things (IoT) device. That is, in this specification, a device may refer to devices capable of operating an application, and is not limited to a specific type. In the following, for convenience of explanation, the device on which the application runs is referred to as a device.
  • IoT Internet of Things
  • the network communication method is not limited, and connections between each component may not be connected through the same network method.
  • the network may include not only a communication method utilizing a communication network (for example, a mobile communication network, wired Internet, wireless Internet, broadcasting network, satellite network, etc.), but also short-range wireless communication between devices.
  • a network can include objects and any communication method through which objects can be networked, and is not limited to wired communication, wireless communication, 3G, 4G, 5G, or other methods.
  • wired and/or networks include Local Area Network (LAN), Metropolitan Area Network (MAN), Global System for Mobile Network (GSM), Enhanced Data GSM Environment (EDGE), High Speed Downlink Packet Access (HSDPA), W-CDMA (Wideband Code Division Multiple Access), CDMA (Code Division Multiple Access), TDMA (Time Division Multiple Access), Bluetooth, Zigbee, Wi-Fi, VoIP (Voice over Internet Protocol), LTE Advanced, IEEE802.16m, WirelessMAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX (IEEE 802.16e), UMB (formerly EV-DO Rev.
  • LAN Local Area Network
  • MAN Metropolitan Area Network
  • GSM Global System for Mobile Network
  • EDGE Enhanced Data GSM Environment
  • HSDPA High Speed Downlink Packet Access
  • W-CDMA Wideband Code Division Multiple Access
  • CDMA Code Division Multiple Access
  • TDMA Time Division Multiple Access
  • Bluetooth Bluetooth
  • Zigbee WirelessMAN-Advanced
  • HSPA+ 3GP
  • Flash-OFDM Flash-OFDM
  • iBurst may refer to a communication network using one or more communication methods selected from the group consisting of MBWA (IEEE 802.20) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX (World Interoperability for Microwave Access), and ultrasonic communication. However, it is not limited to this.
  • MBWA IEEE 802.20
  • HIPERMAN Beam-Division Multiple Access
  • BDMA Beam-Division Multiple Access
  • Wi-MAX Worldwide Interoperability for Microwave Access
  • ultrasonic communication it is not limited to this.
  • Components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, embodiments consisting of a subset of the elements described in the embodiments are also included in the scope of the embodiments of the present specification. In addition, embodiments that include other components in addition to the components described in the various embodiments are also included in the scope of the embodiments of the present specification.
  • FIG. 1 is a schematic block diagram of a cognitive ability development system according to an embodiment.
  • the cognitive ability development system 2 includes a content provision module 21, an input module 22, an analysis module 23, a machine learning module 24, and a monitoring module. Contains module 25. Additionally, each module 21-25 may include one or more functional units.
  • each module 21 to 25 or units included therein may be entirely hardware, or may have aspects that are partly hardware and partly software.
  • each module (21-25) or unit of the cognitive ability development system 2 may collectively refer to hardware and software related thereto for processing data of a specific format and content and/or exchanging data by electronic communication.
  • terms such as “unit,” “module,” “device,” “terminal,” “server,” or “system” are intended to refer to a combination of hardware and software driven by the hardware.
  • hardware may be a data processing device that includes a CPU or other processor.
  • software driven by hardware may refer to a running process, object, executable, thread of execution, program, etc.
  • each element constituting the cognitive ability development system 2 is not necessarily intended to refer to a separate device that is physically distinct from each other. That is, the content provision module 21, input module 22, analysis module 23, machine learning module 24, and monitoring module 25 in FIG. 1 correspond to hardware that constitutes the cognitive ability development system (2). It is functionally divided according to the operation performed by hardware, and each part does not necessarily have to be provided independently from each other.
  • the cognitive ability development system 2 may consist of one cognitive ability development server or multiple servers.
  • one or more of the content provision module 21, the input module 22, the analysis module 23, the machine learning module 24, and the monitoring module 25 are separate devices that are physically separated from each other. It is also possible to implement this.
  • the content provision module 21 is configured to provide users with content for cognitive ability development.
  • the content providing module 21 is a part for transmitting content to the user device 1 so that the content can be presented to the user using a display means and a sound output means provided in the user device 1.
  • the cognitive development system 2 may communicate with the user device 1 via a wired and/or wireless network.
  • communication methods through wired and/or wireless networks may include objects and all communication methods through which objects can be networked, and are not limited to wired communication, wireless communication, 3G, 4G, or other methods. .
  • the user device 1 is shown in the form of a tablet computer, but this is an example.
  • the user device 1 may be a mobile computing device such as a smartphone, a laptop computer, or a personal computer. It may be composed of any computing device such as a PC).
  • the cognitive development system 2 performs, at least in part, the function of an application server that allows the application to perform its functions by communicating with an application (or app) running on the user device 1. can do.
  • the cognitive ability development system 2 is, at least in part, a web server that provides a web page accessible through a web browser running on the user device 1. It can also perform a function.
  • the cognitive ability development system 2 itself may be configured in the form of a device used by the user, in which case the user can directly use the content through the cognitive ability development system 2. Therefore, the user device 1 shown in FIG. 1 may be omitted.
  • cognitive ability development content presented through the content provision module 21 may be related to a plurality of cognitive areas.
  • a plurality of cognitive domains refers to a multifaceted field for encouraging users to engage in activities to improve cognitive abilities from different perspectives in order to improve cognitive abilities, such as preventing or slowing down the decline in cognitive abilities due to dementia, etc. means.
  • the cognitive ability development system 2 may divide content that needs to be managed to improve cognitive ability into five cognitive areas: vascular disease management, cognitive training, exercise, nutritional management, and motivation enhancement. .
  • the cognitive ability development content provided by the cognitive ability development system (2) aims to improve the ability of one or multiple cognitive domains among the five cognitive domains described above, and is developed with the goal of strengthening a specific cognitive domain. This can be done, and in this specification, this is referred to as the characteristics of cognitive ability development content.
  • cognitive ability development content may take the form of a game aimed at strengthening abilities in a specific field.
  • the input module 22 is configured to receive the user's learning data about content provided to the user through the content providing module 21 from the user device 1 .
  • the input module 22 can receive learning data through an input means (not shown) such as a keyboard or touch screen. .
  • the analysis module 23 is configured to analyze the learning data input to the input module 22 and calculate performance information for a plurality of cognitive areas. For example, the analysis module 23 may determine performance information based on cognitive scores for content (e.g., games) in each cognitive domain, time spent on content in each domain, progress rate and/or participation rate for each domain, etc. .
  • content e.g., games
  • the analysis module 23 includes a result analysis unit 231 that analyzes the cognitive score, which is the user's learning result for each area, and/or the time and content spent on achieving the goal of the content in each area. It may include a process analysis unit 232 that analyzes information on consumption time, such as the user's response time.
  • the analysis module 23 further includes a profiling unit 233.
  • the user inputs his/her personal information, such as gender, age, living environment (number of household members, etc.), smoking status, amount of smoking, past dementia diagnosis, and medical history, through the input module 22. can do.
  • the profiling unit 233 is configured to determine a reference value for deriving performance information from learning data based on such personal information.
  • the standard value is information about the section for converting the recognition score or consumption time into a performance value, weight information to be applied to the recognition score or consumption time, or the user's gender/age/living environment/smoking status/medical history, etc. It can refer to any other arbitrary way of adjusting the value.
  • the machine learning module 24 stores the results of learning by machine learning using a pre-entered training data set, and performs machine learning on the performance information obtained by the analysis module 23. It functions to determine the characteristics of user-customized content by applying the learning results of learning.
  • the machine learning module 24 also performs learning through the user's feedback on the analysis results of the monitoring module 25 regarding the user's location and smoking status, and applies the results to determine the user's location in the monitoring module 25.
  • the accuracy of analysis of smoking status can be improved.
  • the machine learning module 240 includes a machine learning model learning unit 241 that performs machine learning using a training data set, and determines customized content for the user's performance information based on the learning results, or It may include a machine learning model determination unit 242 that determines whether or not someone smokes using location information.
  • the input module 22 may further perform the function of receiving a training data set and inputting it to the machine learning model learning unit 241 for machine learning.
  • the input module 22 may include a data labeling unit 222.
  • the data labeling unit 222 trains the data included in the training data set using customized content information (i.e., correct answer) determined by experts or clinical results as suitable for improving the cognitive ability of the user who provided the data.
  • Data in the data set may be labeled, and the labeled data may be provided to the machine learning model learning unit 241.
  • the input module 22 may further include a personal information processing unit 223.
  • the personal information processing unit 223 may perform masking on personal information so that sensitive personal information of each user is not exposed when the machine learning model learning unit 241 performs learning using the training data set.
  • masking may mean deleting the sensitive information itself from the training data set, or dividing, combining, or dividing the data so that it is impossible to match the data records with the individual who provided them even if the information is not deleted. It can refer to reconstruction.
  • the machine learning model determination unit 242 of the machine learning module 24 determines the type of user corresponding to the user's performance information based on the data previously accumulated by the machine learning model learning unit 241, and determines the type of user corresponding to the user's performance information. You can determine the characteristics of customized content that is suitable for you. For example, determining the type of user may mean classifying or clustering users based on patterns of performance shown by the user in multiple cognitive domains, and the machine learning model determination unit 242 ) can use these types to determine customized content suitable for improving the cognitive abilities of the corresponding user category or group.
  • the machine learning model determination unit 242 also determines whether the user is smoking according to the user's location based on the location and smoking status analyzed by the monitoring module 25 and the user's feedback data, and determines whether the user is smoking. Suitable smoking characteristics can be determined depending on location. For example, this may mean classifying or clustering the likelihood of smoking by location area.
  • the monitoring module 25 is configured to monitor the movement path of the user device 1 and determine whether the user smokes. For example, the monitoring module 25 may estimate the user's movement path using GPS information of the user device 1 and probabilistically determine whether or not the user is smoking based on a smoking possibility map for each area.
  • a smoking possibility map refers to a map divided into a plurality of areas based on smoking possibility, and the determination of individual areas with smoking possibility can be made based on the types of buildings and structures adjacent to the sidewalk.
  • the monitoring module 25 can determine whether or not the user smokes and how much they smoke based on the possibility of smoking at the user's estimated location, residence time, heart rate change, oxygen saturation, etc. In this process, the accuracy of estimation can be improved through machine learning.
  • the monitoring module 25 includes a location analysis unit 251 that analyzes the user's location and movement path using sensing data from the user device 1, and the user's smoking probability based on the user's location. It may include a smoking analysis unit 252 that analyzes whether or not the person smokes and the amount of smoking.
  • the monitoring module 25 may receive sensing data collected from the user device 1.
  • the user device 1 may be a mobile computing device such as a smartphone or various wearable devices such as a smart watch.
  • the cognitive ability development system 2 itself may be a user device, and sensor information of the cognitive ability development system 2 itself may be used to estimate the user's location and determine smoking.
  • the sensor information may include, for example, one or more of location sensor (GPS module, etc.) information, an acceleration sensor, a bending sensor, a gyro sensor, a gravity sensor, a speed sensor, and a biometric sensor.
  • FIGS. 1 and 2 are flowchart showing each step of a cognitive ability development method according to an embodiment. For convenience of explanation, the cognitive ability development method according to this embodiment will be described with reference to FIGS. 1 and 2.
  • the input module 22 of the cognitive ability development system 2 can receive a training data set (S11).
  • the training data set may be input or transmitted to the input module 22 from the administrator's user device, or may be received from an external server (not shown).
  • the data labeling unit 222 of the input module 22 uses customized content information determined based on expert or clinical information based on each data in the training data set. Thus, the data can be labeled (S12). Additionally, the personal information processing unit 223 of the input module 22 may remove sensitive information from data in the training data set or perform masking to prevent sensitive information from being associated with the individual data provider (S12).
  • the machine learning module 24 of the cognitive ability development system 2 can receive data for which labeling and masking have been completed and use this to generate learning results for determining customized content from the learning data (S13).
  • the learning result refers to determining the type of user based on the pattern of the learning data and determining the characteristics of the content suitable to be applied to that type of user, such as the type and number of cognitive areas corresponding to the content. It may be for.
  • the machine learning learning process (S11-S13) described above may be performed by the machine learning model learning unit 241 of the machine learning module 24.
  • the machine learning module 24 may receive algorithms and parameters corresponding to machine learning results from an external device or server and operate based on them. In this case, the above-described learning process (S11- S13) may be omitted.
  • the monitoring module 25 of the cognitive ability development system 2 analyzes and monitors the user's location using the sensor information of the user device 1, and determines whether the user is smoking based on the user's location information. (S21).
  • the monitoring module 25 can analyze whether the user smokes and monitor the user's blood vessel health based on this.
  • the content provision module 21 of the cognitive ability development system 2 provides cognitive ability development content with characteristics of a plurality of cognitive areas to the user. You can do it (S22).
  • the cognitive ability development system 2 can provide digital content tailored to the user in the area of vascular disease management according to the result of determining whether the user smokes.
  • the input module 22 of the cognitive ability development system 2 may receive the user's learning data about the provided content (S23).
  • learning data refers to the cognitive score achieved by a user solving a task provided through content in a game-like format, the time the user spends on completing the task, or a series of tasks within the content. It may include the user's progress rate or participation rate.
  • the input module 22 may further receive personal information of a user participating in the content simultaneously with receiving the learning data or before or after receiving the learning data (S24).
  • personal information may include, but is not limited to, information such as the user's gender/age/living environment/smoking status/medical history.
  • the analysis module 23 of the cognitive ability development system 2 may derive performance information suitable for determining the type of user indicated by the learning data from the user's learning data (S25).
  • performance information refers to the recognition score, time spent, progress rate, participation rate, etc. achieved by the user for the content, or converts this information into a performance value based on certain criteria (grade, threshold, weight, etc.) It may have been converted to .
  • the machine learning module 24 of the cognitive ability development system 2 may determine user-customized content based on the performance information derived by the analysis module 23 (S26). This may mean determining the characteristics (type, difficulty, time limit, etc.) of cognitive ability development content suitable to be presented next to that user based on the type of user determined through the machine learning model, which is described in detail. This will be described later.
  • Figure 3 is a conceptual diagram illustrating a data processing process by a cognitive ability development method according to an embodiment.
  • information such as usage history, progress rate, recognition score, and/or participation rate is derived from the user's learning data, and this is used as performance information to provide the user with information such as use history, progress rate, recognition score, and/or participation rate. You can decide on customized content to be provided.
  • a digital therapeutic may be a software medical device. More specifically, the user's cognitive state information is analyzed based on the above-described cognitive ability development system (2), and content is provided to the user based on the analyzed user's cognitive state information to improve the user's cognitive ability to prevent disease (e.g. dementia). ) may be a software medical device aimed at the prevention, management, and treatment of As an example, a digital therapeutic may be a software medical device that collects, manages, and stores user data to enable customized analysis and treatment for patients.
  • a digital therapeutic may mean improving a user's cognitive ability by analyzing the user and providing content based on the cognitive ability development system 2 as described above, and is not limited to a specific embodiment.
  • a digital treatment performed based on the cognitive ability development system 2 is described, but may not be limited thereto.
  • the cognitive ability development system 2 may determine the user's cognitive state by analyzing user information using user viewpoint tracking.
  • a camera may be used to track the user's viewpoint.
  • a camera may be mounted on the user device 1 and track the viewpoint (or gaze), face, hands, and other body of the user who receives content.
  • the camera is a webcam that can be mounted on a Windows OS-based tablet or desktop and can extract the user's viewpoint (or gaze), face, palm, and other coordinates of the body.
  • the cognitive ability development system (2) can determine the user's cognitive state by continuously tracking the coordinate values extracted through the camera, and through this, the cognitive ability development system (2) as a digital therapeutic agent can accurately recognize the user's state. You can.
  • FIG. 4 is a diagram illustrating a method for tracking a user's viewpoint according to an embodiment.
  • the camera 3 can be installed in the tablet 1 and other devices described above.
  • the camera 3 may be attached to the top of a device that provides content to a user or may be combined with the device, and is not limited to a specific embodiment.
  • the camera 3 can derive coordinate values by extracting at least one of the user's hand 41, face 42, and viewpoint (or gaze 43).
  • the cognitive ability development system 2 can determine the user's cognitive state by tracking changes in coordinate values extracted through the camera 3.
  • the center point of the user's hand 41 may be set as a reference point for the coordinate value, and tracking may be performed based on this.
  • coordinate values of each point of the user's hand 41 may be derived, and tracking of the user's hand 41 may be performed through the average of the derived coordinate values.
  • the center point of the face 42 may be set as a reference point for the coordinate value, and tracking may be performed based on this.
  • coordinate values of each point of the face 42 may be derived, and tracking of the face 42 may be performed by averaging the derived coordinate values.
  • the center point of the user's eyes may be set as a reference point for the coordinate value, and tracking may be performed based on this.
  • coordinate values of each point of the user's eyes can be derived, and tracking of the user's eyes can be performed by averaging the derived coordinate values.
  • the cognitive ability development system can track the user's hands (41), face (42), viewpoint (43), and other bodies, and through this, determine the user's state and provide content tailored to the user. User cognitive ability can be improved efficiently.
  • FIGS. 5A to 5D are diagrams illustrating a method of extracting user information and upgrading a digital therapeutic product based on user viewpoint tracking according to an embodiment.
  • the cognitive ability development system 2 may provide content to the user based on user cognitive state information.
  • content may be provided to the user through the content provision module 21 of the cognitive ability development system 2.
  • the user can perform learning based on the content provided by the cognitive ability development system 2, and through this, the cognitive ability development system 2 can check the user's cognitive state.
  • the input module 22 of the cognitive ability development system 2 may be configured to receive user learning data about content provided to the user through the content provision module 21 from the user device 1.
  • the input module 22 can receive learning data through an input means (not shown) such as a keyboard or touch screen. there is.
  • the analysis module 23 may acquire user cognitive state information by analyzing the learning data input to the input module 22.
  • user cognitive state information may be configured to calculate performance information for a plurality of cognitive areas.
  • the analysis module 23 may determine performance information based on at least one of the cognitive score for the content (e.g. game) of each cognitive domain, the time consumed for the content of each domain, and the progress rate and participation rate for each domain, through which User cognitive state information can be derived.
  • the cognitive ability development system 2 may provide question information 501 and answer information 502 to the user as content.
  • the user can derive answer information as learning data based on the question information 501 and input it into the answer information 502.
  • the cognitive ability development system 2 may provide related content 51, 52, 53, 54, 55, 56, and 57 in consideration of learning.
  • learning data can be generated by the user entering related content (51, 52, 53, 54, 55, 56, 57) into the answer information (502), and the cognitive ability development system (2) generates the generated learning data. can be obtained.
  • FIG. 5A the cognitive ability development system 2 may provide question information 501 and answer information 502 to the user as content.
  • the user can derive answer information as learning data based on the question information 501 and input it into the answer information 502.
  • the cognitive ability development system 2 may provide related content 51, 52, 53, 54, 55, 56, and 57 in consideration of learning.
  • learning data can be generated by the user entering related content (51, 52, 53, 54, 55, 56,
  • consonants/vowels may be provided to the user as fruit-shaped content to input an answer to a question.
  • the user can complete the answer information 502 by selecting a fruit containing a consonant or vowel corresponding to the answer information, and through this, learning data can be generated.
  • the learning data may include information about whether the user inputs the answer information 502 corresponding to a preset value. In other words, information about whether the user answered correctly can be obtained.
  • the learning data may further include time information at which the user inputs an answer into the answer information 502. For example, if the input time of the user's answer information 502 is short, the user's cognitive state may be judged to be of a high level, and if the input time of the user's answer information 502 is long, the user's cognitive state may be judged to be of a low level.
  • the cognitive ability development system 2 may generate learning data by further tracking user viewpoint information. More specifically, referring to FIG. 5b, the cognitive ability development system 2 derives the coordinate value for the user viewpoint 43 through the camera 3 and tracks the viewpoint 43, as described above. You can.
  • the user's viewpoint 43 checks the question information 501, then moves to check the answer information 502, and then moves to content 51, 52, 53, 54, 55 for inputting the answer information 502. , 56, 57).
  • the cognitive ability development system 2 can check how the user perceives the provided content.
  • the cognitive ability development system 2 can confirm that the user's cognitive state is at a low level. In other words, the cognitive ability development system 2 can check the user's cognitive state through tracking the user's viewpoint 43, and through this, the user's cognitive state can be recognized more accurately.
  • the cognitive ability development system 2 may further display timeline information 503 as information for determining the user's cognitive state, and based on this, the user may provide answer information 502. You can recognize the time needed to derive it.
  • the cognitive ability development system 2 can control the provided content based on the above-described user cognitive state information.
  • the cognitive ability development system 2 tracks the user's viewpoint 43 through the front camera 3, and selects each word fragment (consonant/vowel) based on the viewpoint 43. ), you can adjust the surrounding shape (banana, cucumber, lettuce, etc.), color, and size, or provide a hint.
  • the contents 51, 52, 53, and 55 input into the answer information 502 may be increased in size in consideration of the low user cognitive state, and the color may be changed to a color that is easily visible. there is.
  • the cognitive ability development system 2 can check the user's cognitive state through tracking the user's viewpoint 43 and provide content suitable for the confirmed user's cognitive state.
  • the cognitive ability development system 2 may track the user's viewpoint 43 and count how many times the user reads the question information 501. For example, if the user checks the question information 501 more than a preset number of times, the user's cognitive status rating may be low. In this case, to reduce the difficulty of the question, increase the size of the content or make the color more noticeable as described above. It can be changed, and through this, efficient content can be provided. As another example, when tracking the user's viewpoint 43 and passing the correct word fragment more than a preset number of times, the cognitive ability development system 2 counts the preset number of times to determine when to provide a hint or zoom in on the correct word fragment. It may be, and may not be limited to a specific form.
  • the cognitive ability development system 2 can derive the user's viewpoint 43 as well as the user's facial expression information through the camera 3. For example, when the user squints his eyes or moves his face closer to the screen, the cognitive ability development system 2 may increase the size of the content provided to the user. In other words, it may be the case that the user does not properly recognize the content, so the cognitive ability development system (2) can enable the user to receive the content efficiently by increasing the size of the content, and perform advancement by efficiently measuring the cognitive ability. can do.
  • FIG. 6A is a diagram illustrating a method of tracking a user's hand and enhancing a digital therapeutic agent according to an embodiment.
  • the above-mentioned camera 3 can track not only the user's viewpoint 43 but also the user's hand 41.
  • the cognitive ability development system 2 can update the answer information 502 when it detects that the coordinates of the tracked user's hand 41 and the coordinates on the screen of the provided content match.
  • the cognitive ability development system 2 can track the user's hand 41 and detect an input that selects the specific content 55 at the location of the specific content 55.
  • the cognitive ability development system 2 when the cognitive ability development system 2 detects that the coordinates of each of the user's hands 41 are gathered within a preset distance, it can detect an input for selecting specific content 55 at that location. That is, the grasping motion of the user's hand 41 can be detected, and specific content 55 can be selected based on this. Afterwards, the cognitive ability development system 2 may detect that the specific content 55 selected based on the camera 3 moves from the first location to the second location. At this time, the content 61 provided at the second location may be a location that provides input for providing specific content 550 as answer information 502. That is, when the user's hand 41 selects specific content 550 and moves it to the blender 61, the cognitive ability development system 2 can recognize this and provide it as answer information 502.
  • the cognitive ability development system 2 can recognize the user's hand 41 and track the recognized hand. At this time, the cognitive ability development system 2 may check the user's cognitive state based on the movement of the user's hand 41. For example, when the cognitive ability development system 2 detects that the user's hand 41 is quickly selected and moves from the first position to the second position within a preset time, it can determine that the user's cognitive state is at a high level. On the other hand, when the cognitive ability development system 2 detects that the movement speed of the user's hand 41 is slow and the user cannot perform the operation to select specific content 55, it can determine that the user's cognitive state is at a low level. In other words, the cognitive ability development system 2 can determine the user's cognitive state by tracking the user's hand 41.
  • the cognitive ability development system 2 may determine the user's cognitive state based on time information for deriving final answer information based on tracking the user's hand 41.
  • the answer information 502 based on the question information 501 is "mother" and the user's hand 41 selects " ⁇ ", " ⁇ ", " ⁇ ", and " ⁇ ” to select the above-mentioned items. Movement to position 2 (i.e. blender, 61) can be detected, and time information required to derive the corresponding answer can be derived.
  • the cognitive ability development system 2 may determine that the user's cognitive status level is low if it takes a long time to derive the final answer information 502, and if the time to derive the final answer information 502 is short, the cognitive ability development system 2 may determine that the user's cognitive status level is low. It can be determined that the user's cognitive status level is high.
  • the cognitive ability development system 2 can detect both the user's viewpoint 43 and the user's hand 41. More specifically, referring to FIGS. 7A and 7B , the user can check question information 501 in the provided content and generate answer information 502 by selecting and moving specific content. At this time, the user's viewpoint 43 can move to each content based on the question information 501 and the answer information 502, and the user's hand 41 can move to each content for the answer information 502. there is. In other words, the user can recognize the content provided from the cognitive ability development system 2 with his eyes, select it with his hand, and perform a specific action.
  • the cognitive ability development system 2 can detect both the user's viewpoint 43 and the user's hand 41, and can determine the user's cognitive state through this.
  • the cognitive ability development system 2 can recognize both the user's viewpoint 43 and the user's hand 41 through one camera 3.
  • the cognitive ability development system 2 may include a plurality of cameras 3 and track the user's viewpoint 43 and the user's hand 41 based on the plurality of cameras 3.
  • individual weights may be assigned to information tracked based on the user's viewpoint 43 and information tracked based on the user's hand 41, and the user's cognitive state grade is determined by reflecting the values considering the weights. It can be determined, and through this, the cognitive ability development system 2 can check the user's cognitive state.
  • the cognitive ability development system 2 provides a virtual object 71 and at least one of the user's face 42 and the user's body 44 based on the virtual object 71. By tracking either one, you can determine the user's cognitive state. At this time, as an example, the cognitive ability development system 2 can enable the user to easily recognize the virtual object 71 through control of the virtual object 71. As an example, the cognitive ability development system 2 may adjust the color surrounding the word fragment based on the background color. As a specific example, when there is a purple curtain, the cognitive ability development system 2 may display the virtual object 71 in a different color so that the user can easily recognize it. In addition, as an example, referring to FIG.
  • the cognitive ability development system 2 recognizes real objects in the background (e.g. windows, chairs, picture frames, etc.)
  • the position of an object can be adjusted dynamically.
  • the virtual object 71 may not be identifiable to the user due to the real object, and taking this into consideration, the virtual object 71 may be moved to an area where the user can identify it.
  • the cognitive ability development system 2 can select the location of the virtual object by considering the brightness and complexity of the real object and the color and transparency of the virtual object 71.
  • the cognitive ability development system 2 can detect the space where the virtual object 71 is displayed through the camera and derive brightness and complexity information by recognizing the real object in the space.
  • the cognitive ability development system 2 can determine a position that the user can easily recognize by deriving the color and transparency information of the virtual object 71 and comparing it with the above-described real object information.
  • brightness may be the degree to which light enters due to ambient illumination or a window.
  • complexity may be a background recognized based on wallpaper or a picture frame with a complicated picture.
  • the color and transmittance of the virtual object 71 may be considered complementary or similar to the background, or if the transmittance is high, the transmittance may be lowered or moved.
  • the cognitive ability development system 2 can also adjust the user's location. As an example, the cognitive ability development system 2 may determine the user's cognitive state by tracking the user's face 41 or the user's body 44 that imitates the virtual object 71.
  • the cognitive ability development system 2 may display information to adjust the user's location, and based on this, Thus, the user's movements can be recognized after the user's position has been adjusted.
  • FIGS. 9A and 9B are diagrams showing a method of determining a user's cognitive state based on tracking the user's viewpoint 43.
  • a plurality of contents 91, 92, 93, 94, 95, 96, 97, 98, and 99 are arranged, and the user's viewpoint 43 moving accordingly can be tracked.
  • the cognitive ability development system 2 informs the user that an operation to check all of the plurality of contents (91, 92, 93, 94, 95, 96, 97, 98, 99) is necessary, and the user selects the plurality of contents.
  • the cognitive ability development system 2 can track the user viewpoint 43 and obtain information on the time when the user viewpoint 43 moves from the first content 91 to the last content 99 and back again. At this time, the cognitive ability development system 2 may determine that the level of the user's cognitive state is high if the time information is short, and may determine that the level of the user's cognitive state is low if the time information is long.
  • the user cognitive status level may be set to a plurality of levels based on preset conditions.
  • a weight may be assigned to each condition that classifies each grade, and the user's cognitive state grade may be determined based on the weight information.
  • a first weight is given to the time information at which the answer information 502 is derived based on the user viewpoint 43, and the user confirms the question information 501 based on the user viewpoint 43.
  • a second weight may be assigned to the number of times.
  • the cognitive ability development system 2 can derive the final value by considering each weight and check the user's cognitive status grade corresponding to the area from which the final value was derived.
  • a third weight is given to the time information at which specific content is selected based on the user's hand 41 and the final answer is derived, and the user's hand 41
  • a fourth weight may be assigned to the user's action of selecting specific content based on tracking.
  • the cognitive ability development system 2 reflects all of the first weight, second weight, third weight, and fourth weight to derive the final value, and confirms the user cognitive status grade corresponding to the area from which the final value was derived. You can. In other words, the user cognitive status rating can be performed through comparison with the final value derived by the cognitive ability development system 2.
  • the cognitive ability development system 2 may generate learning data based on the user cognitive state grade information described above, and adjust content to match the user cognitive state grade based on the generated learning data.
  • the generated learning data can be fed back and transmitted to the cognitive ability development system (2), and the cognitive ability development system (2) can efficiently provide content appropriate for the user's cognitive status level by reflecting the above-mentioned information. .
  • FIG. 10 is a flowchart showing a method for managing blood vessels through smoking monitoring according to an embodiment.
  • the blood vessel management method through smoking monitoring shown in FIG. 10 may be performed by the cognitive ability development system 2 (or cognitive ability development server) that receives location information from the user device 1.
  • the cognitive ability development system may be implemented and configured integrally with the user device.
  • the cognitive ability development system 2 can construct a smoking probability map for each area, which is the basis for determining the probability of smoking based on the user's location information (S31).
  • the smoking probability map refers to a map divided into a plurality of areas based on the possibility of determining smoking depending on the user's location. Referring to the map divided to determine the possibility of smoking by area as shown in FIG. 11, individual areas for the possibility of smoking are determined by the location of the road and the type of adjacent building (e.g., parking lot, It may be determined based on one or more of (restaurant, school, cafe, etc.), type of structure (e.g., road, tree, lake, etc.), and presence or absence of a smoking booth.
  • the area surrounded by restaurants is all considered as one area, including the restaurant area (A), the area in front of the car dealership (B), the area in front of the bank (C), and the surrounding area around residential areas and shopping malls of a certain size or larger. It can be divided into (D), the border area of buildings and parks for specific purposes (E), the area in front of the school (F), and the area in front of the supermarket (G).
  • the cognitive ability development system 2 may construct a smoking probability map based on terrain modeling provided by an external rendering server (eg, Naver map server, Google Earth server, etc.). According to one embodiment, the cognitive ability development system 2 may generate a smoking probability map through geographical information corresponding to the user's current location or the location input by the user.
  • the cognitive ability development system 2 may generate and store in advance a smoking probability map for spaces where the user's location is frequently detected, such as the user's workplace or around the home.
  • the cognitive ability development system 2 can divide areas in real space by considering the characteristics of the area and the characteristics of surrounding terrain features and assign a smoking possibility to each section. For example, based on real space, there is a 0% chance of smoking on the road, a 20% chance of smoking on the sidewalk next to the road, a 5% chance of smoking near a school, a 50% chance of smoking next to the sidewalk if the road is narrow or one-lane, and a 50% chance of smoking near a parking lot.
  • the area can be divided by considering the characteristics of the area and the characteristics of surrounding terrain, such as 60% for the neighborhood, 80% for the area between buildings, and 99% for the smoking booth, and the possibility of smoking can be assigned to each section.
  • a map of the likelihood of smoking by area can be constructed using machine learning techniques through learning.
  • the cognitive ability development system 2 may receive the user's location information from the user device 1 (S32).
  • the user device 1 may be a mobile computing device such as a smartphone or various wearable devices such as a smart watch.
  • the cognitive ability development system 2 can receive sensing data measured from a location sensor (GPS module, etc.) from the user device 1, and tracks the user's location information from the received location sensing data to track the user's movement path. It can be estimated.
  • the cognitive ability development system 2 may collect sensing data from the user device 1 from one or more of the following sensors: an acceleration sensor, a bending sensor, a gyro sensor, a gravity sensor, a speed sensor, and a biometric sensor. It can be used to measure the user's smoking status more precisely, such as measuring blood pressure and electrocardiogram changes to determine whether the user smokes and how much he or she smokes, which will be described later.
  • the cognitive ability development system 2 can determine the user's smoking probability based on the user's location information (S33).
  • the cognitive ability development system (2) uses the user's movement path estimated using the user's location information to determine the probability of smoking by considering the user's location and residence time at that location based on the possibility of smoking in each area. You can. For example, in the smoking probability map by area, the probability of smoking is 0% on the road, the probability of smoking is 20% on the sidewalk next to the road, the probability of smoking is 5% near the school, and if the road is narrow or one-lane, the probability of smoking is 50% on the sidewalk next to it.
  • the cognitive ability development system 2 estimates that the user's location is staying in the restaurant area (A) for more than a certain period of time (for example, more than 2 minutes), the user's probability of smoking is determined based on the distance between the buildings. It can be judged as 80%.
  • the cognitive ability development system 2 determines that if the user's stay time is more than a certain time in a specific location and the location is the area in front of the car dealership (B), the probability of smoking is 60% near the parking lot, and the area in front of the bank (C) ), there is a 20% chance of smoking on the sidewalk next to the road, in the case of the surrounding area around residential and commercial areas (D), if the road is narrow or one-lane, there is a 50% chance of smoking on the sidewalk next to it, and in the border area of the park (E), there is a 50% chance of smoking on the sidewalk next to the road.
  • the cognitive development system 2 may receive information from the user device 1, which is a mobile device such as a smart phone, that a call is in progress, in which case the cognitive development system 2 may detect smoking at that location. The likelihood can be lowered. For example, even if the user's location is estimated to stay in the restaurant area A for a certain period of time (for example, more than 2 minutes), if the user device 1 also receives information on a call, the probability of smoking is reduced to 80. It can be judged as 40%, not %. If the user's location is estimated to be a smoking booth, the probability of smoking can be determined to be 99% without lowering even if information is received that the user device 1 is on a call. In other words, the cognitive ability development system 2 can determine whether to lower the probability of smoking by additionally using information during the user's call.
  • the cognitive ability development system 2 can determine whether to lower the probability of smoking by additionally using information during the user's call.
  • the cognitive ability development system 2 may determine that the user is smoking if the probability of smoking is higher than a preset reference value (S34). For example, if the cognitive ability development system 2 determines that the probability of smoking is 80% in the restaurant area A, the cognitive ability development system 2 may determine that the user actually smoked if the preset reference value is 50%. In one embodiment, the cognitive ability development system 2 may determine that the user has smoked only when the probability of smoking is greater than a reference value (eg, 50%) and the change in heart rate and blood pressure is greater than a certain reference value. If it is determined that the user is a smoker, the cognitive ability development system 2 can estimate the intensity of inhalation based on the degree of change in the user's blood pressure and electrocardiogram.
  • a reference value eg, 50%
  • the cognitive ability development system (2) obtains a graph of blood pressure and electrocardiogram changes during the user's stay at the location, defines sections based on slope, and classifies the suction intensity into 'high', 'middle', and 'low' for each section. You can. Based on the user's inhalation intensity and residence time, the user's smoking amount at that location can be estimated. In one embodiment, smoking status and smoking amount may be estimated through machine learning techniques based on learning. In another embodiment, smoking time and smoking amount (smoking time, number of cigarettes, etc.) may be input from the user.
  • the cognitive ability development system 2 may receive feedback from the user confirming whether the user smokes and store the user's smoking information (S35). After determining whether the user smokes, the cognitive ability development system 2 can update the accuracy of estimating smoking status through the user's feedback. As shown in Figure 12, the user's feedback is collected by sending a message to the user device 1 about whether or not to smoke or displaying an inquiry window, and then collecting the user's answer through the input module 22. It can be done. Referring to FIG. 12, the cognitive ability development system 2 pops up a window asking the user if he or she smokes, and if the user's answer is positive, it displays an additional inquiry window to check the amount of smoking (smoking time, number of cigarettes, etc.). You can.
  • the cognitive ability development system 2 can update information in the DB by storing smoking information such as whether the user smokes and the amount smoked, and information received from the user as feedback. At this time, the cognitive ability development system (2) determines that it is smoking, but if the user's feedback is not smoking, the user's smoking status is recorded as non-smoking, and the possibility of smoking can be lowered on the smoking possibility map for each area of the location. And the smoking availability map for each area can be updated using the data as learning data.
  • the cognitive ability development system 2 can add information to blood vessel management items based on the user's smoking information and provide digital treatment content according to the user's smoking information (S36).
  • the cognitive ability development system 2 can add smoking information such as whether the user smokes, smoking time, and inhalation strength to the blood vessel management items, and configure and display the screen as shown in FIG. 13A.
  • the cognitive ability development system 2 can accumulate and manage the user's smoking information and display the smoking status in the form of a calendar on the display screen.
  • the cognitive ability development system 2 may also provide digital therapeutic content based on the user's smoking information, as shown in FIGS. 14A and 14B.
  • the cognitive ability development system 2 provides "vascular education” content if the user smokes, and focuses on “smoking education” among the “vascular education” content and provides it as digital therapeutic content. You can.
  • digital therapeutic content may set the user's smoking cessation task and include related smoking (smoking cessation) education and a plan to achieve the smoking cessation goal.
  • Figure 11 is a diagram illustrating a map divided into sections to determine the possibility of smoking in each area according to an embodiment.
  • the smoking possibility map by area refers to a map divided into a plurality of areas based on the possibility of determining smoking depending on the user's location, and can be generated in advance by the cognitive ability development system (2).
  • the individual area for the possibility of smoking is determined by the type of building adjacent to the sidewalk (e.g., parking lot, restaurant, school, cafe) etc.), structures (e.g., roads, trees, lakes, etc.), etc.
  • the areas surrounded by restaurants are all considered as one area, including the restaurant area (A), the area in front of the car dealership (B), the area in front of the bank (C), and the surrounding areas of residential areas and shopping malls of a certain size or larger. It can be divided into a perimeter area (D), a boundary area for buildings and parks for specific purposes (E), an area in front of the school (F), and an area in front of a supermarket (G).
  • the cognitive ability development system 2 may construct a smoking probability map based on terrain modeling provided by an external rendering server (eg, Naver map server, Google Earth server, etc.). According to one embodiment, the cognitive ability development system 2 may generate a smoking probability map through geographical information corresponding to the user's current location or the location input by the user. In another embodiment, the cognitive ability development system 2 may generate and store in advance a smoking probability map for spaces where the user's location is frequently detected, such as the user's workplace or around the home. The cognitive ability development system 2 can divide areas in real space by considering the characteristics of the area and the characteristics of surrounding terrain features and assign a smoking possibility to each section.
  • an external rendering server eg, Naver map server, Google Earth server, etc.
  • the cognitive ability development system 2 may generate a smoking probability map through geographical information corresponding to the user's current location or the location input by the user.
  • the cognitive ability development system 2 may generate and store in advance a smoking probability map for spaces where the user's location is frequently detected, such as the user's workplace or
  • Figure 12 is a diagram illustrating a method of checking whether a user smokes and the amount of smoking according to an embodiment.
  • the cognitive ability development system (2) sends a message to the user device (1) about the user's smoking status or sends an inquiry window to the user device (1) to confirm whether the user's smoking status determined through the smoking probability map and the user's location information is accurate. You can check by displaying . The user's answer feedback may be collected through the input module 22.
  • the cognitive ability development system 2 opens a window 121 to inquire whether the user smokes, and if the user's answer is positive, an additional inquiry window to check the amount of smoking (smoking time, number of cigarettes, etc.) (122) can be displayed. At this time, if the cognitive ability development system (2) determines that it is smoking, but the user's feedback does not indicate smoking, the user's smoking status is recorded as non-smoking, and the smoking possibility in the smoking possibility map for each area of the location is reduced. You can. In addition, the cognitive ability development system 2 can update the smoking probability map for each zone using the corresponding data as learning data.
  • FIG. 13A is a diagram illustrating a method of displaying a user's smoking management status according to an embodiment.
  • the cognitive ability development system 2 can add smoking information such as whether the user smokes, smoking time, and inhalation strength to the blood vessel management items and display it on the display screen.
  • the cognitive ability development system 2 can accumulate and manage the user's smoking information and display the smoking status on the display screen in the form of a calendar.
  • FIG. 13B is a diagram illustrating a method of providing a status screen for managing a user's blood vessels according to an embodiment.
  • the cognitive ability development system 2 can additionally display the user's blood pressure measurement information and display whether the user's blood pressure is normal, high blood pressure, or low blood pressure.
  • the cognitive ability development system 2 displays the change in blood pressure before and after the user's smoking, visually displays the relationship between smoking and blood pressure to the user, and can effectively provide an auxiliary screen for managing vascular health due to smoking.
  • FIG. 14A is a diagram illustrating a method of providing a blood vessel education menu for a user's blood vessel management according to an embodiment.
  • the cognitive ability development system 2 can provide digital therapeutic content based on the user's smoking information. Referring to FIG. 14A, the cognitive ability development system 2 may provide a menu from which the user can select “vascular education” content if the user smokes.
  • Figure 14b is a diagram illustrating a method of providing a smoking education menu for the user's blood vessel management according to an embodiment.
  • the cognitive ability development system 2 can focus on “smoking education” among “vascular education” contents and provide it as digital therapeutic content.
  • the cognitive ability development system 2 may provide a menu for selecting “smoking education” content when “vascular education” content is selected.
  • digital therapeutic content may provide the user with a task to quit smoking and include related education and a plan to achieve the goal of quitting smoking.
  • Computer-readable recording media on which programs for implementing the embodiments are recorded include all types of recording devices that store data that can be read by a computer. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, and optical data storage devices. Additionally, computer-readable recording media may be distributed across computer systems connected to a network, and computer-readable codes may be stored and executed in a distributed manner. Additionally, functional programs, codes, and code segments for implementing this embodiment can be easily understood by those skilled in the art to which this embodiment belongs.
  • This specification can be used industrially by monitoring whether the user smokes and how much he or she smokes and providing digital therapeutic content by taking this into account.

Abstract

본 명세서의 일 실시예에 따라, 인지능력 개발 서버에 의해 수행되는, 흡연 모니터링을 통한 혈관 관리 방법에 있어서, 사용자의 위치 정보를 수집하는 단계, 상기 사용자의 위치 정보를 기초로 흡연 여부를 판단하는 단계, 상기 사용자의 흡연 여부에 기초하여 디지털 치료제 콘텐츠를 제공하는 단계를 포함할 수 있다.

Description

흡연 모니터링을 통한 혈관 관리 방법 및 장치
본 발명은 흡연 모니터링을 통한 혈관 관리 방법 및 장치에 대한 것이다. 보다 상세하게는, 사용자의 위치 정보를 기초로 흡연상태를 모니터링하고 모니터링 결과를 이용하여 혈관 관리하는 방법 및 장치에 대한 것이다.
의학의 발달에 의해 평균 수명이 증가하면서, 전세계적으로 고령화가 진행되고 있다. 한국의 경우 2000년에 65세 이상 노인 인구의 비율이 전체 인구의 7.2%로서 고령화 사회에 진입하였으며, 2017년에는 노인 인구 비율이 14%를 넘어 고령 사회로 진입하였다. 2030년에는 한국의 노인 인구 비율은 24.3%에 이르러 한국은 초고령 사회가 될 것으로 예측되고 있다.
이와 같은 급속한 고령화에 의한 영향으로, 치매 인구가 급격하게 증가하는 추세에 있다. 전 세계 치매 인구는 2010년 기준으로 약 3,560만명에 이르며, 2050년에는 치매 인구가 약 3배 증가하여 1억 1,540만명에 이를 것으로 예상된다. 한국에서도 2005년 인구 센서스 기준 연령, 성별, 교육, 거주지역 표준화 치매 유병률을 기준으로 추산한 향후 연도별 치매 유병률은 2012년에 9.08%, 2020년에 9.74%, 2030년에 9.61%, 2040년에 11.21%, 그리고 2050년에 13.17%로 증가되어 2027년에는 치매 인구가 100만명을 초과하고, 2050년에는 치매 인구가 212만명에 이를 것으로 예측되고 있다.
치매 인구가 급격히 증가함에 따라, 치매의 치료 및 관리 비용 또한 증가하고 있다. 치매의 사회적 비용은 암, 심장질환, 뇌졸중의 세 가지 질병을 모두 합한 비용을 초과하는 것으로 추정되며, 한국의 경우 치매로 인한 연간 총 진료비는 2010년 기준 8,100억원으로 노인성질환 중 2위이고, 1인당 치매 진료비는 연간 310만원으로 5대 만성질환 중 가장 높은 것으로 나타나고 있다. 또한, 한국의 국가 총 치매 비용은 연간 8조 7천억원으로 10년마다 두배씩 증가할 것으로 추정된다.
급격히 증가하는 치매로 인한 사회적 및 경제적 부담을 줄이기 위해서는, 치매 고위험군의 조기 발견을 통한 적극적 치료를 통하여 치매의 발병을 지연시킬 필요가 있다. 이를 위한 종래의 기술로, 등록특허공보 제10-1295187호는 선별된 콘텐츠에 대하여 전달한 사용자의 피드백에 따른 획득점수에 따라 사용자의 성취도를 부여함으로써 치매 예방 기능을 수행하는 뇌기능 향상 시스템 및 그 운용방법을 개시한다.
치매의 여러 요인 중 흡연은 치매의 위험요소로 잘 알려져 있다. 중년기와 노년기의 흡연에 따른 치매의 위험도는 여러 연구에서 흡연이 치매 발명 위험성을 높이는 것으로 나타났으며, 중년에 담배를 피웠으나 노년에 금연을 하는 경우 치매 발명 위험성이 일반에 비해 높지 않은 것으로 나타났다. 따라서, 흡연과 치매 발생 위험성 간의 상관관계를 고려할 때, 금연을 함으로써 인지기능 저하나 치매 발명 위험성을 낮출 수 있다.
뿐만 아니라, 흡연은 타르와 일산화탄소가 동맥 내벽에 장기적인 손상을 일으키고, 염증 상태를 유도하여 염증 반응 물질을 생성시켜 동맥경화를 일으키기도 한다. 또한, 염증 반응으로 형성된 동맥 경화반(플라크, plaque)은 혈관을 막아 심근경색이나 뇌경색의 위험을 2~3배가량 높이는 등 각종 혈관계 질환의 원인이 되고, 치매 환자의 경우 흡연이 상태를 더욱 악화시킬 수 있다.
치매 예방 및 치료를 위한 종래의 인지 중재 치료법은 병원 등 기관에 방문하여 전문가의 주관 하에 시행하여야 하므로 1회에 5~12만원에 달하는 높은 치료 비용을 지불하여야 하는 것이 대부분이다. 또한, 컴퓨팅 장치를 이용한 인지 중재 치료 프로그램도 개발되었으나, 장치 1대에 5천만원에 달하는 높은 비용으로 인하여 일반적인 사용자들이 사용하기 어려운 한계가 있다.
하기에서는 상술한 점을 고려하여 치매 등 질병을 예방하기 위해 사용자의 흡연상태를 모니터링 하고 이를 통해 혈관 건강을 관리하는 방법 및 장치에 대해 서술한다.
[선행기술문헌]
[특허문헌]
한국특허공보 제10-1295187호
본 명세서는 흡연 모니터링을 통한 혈관 관리 방법 및 장치에 대한 것이다.
본 명세서는 사용자의 위치 정보를 기초로 흡연상태를 모니터링 하고 모니터링 결과를 이용한 혈관 관리 방법 및 장치에 대한 것이다.
본 명세서는 사용자의 흡연 여부 및 흡연량을 모니터링하여 이를 고려한 디지털 치료제 콘텐츠를 결정하고, 사용자에게 제공하는 방법 및 장치에 대한 것이다.
본 명세서는 구역별 흡연 가능 지도를 구축하고, 사용자 위치 정보를 이용한 이동 경로 트래킹에 기초하여 사용자의 흡연 가능성을 판단하고, 판단된 사용자 흡연 상태를 고려하여 혈관 건강 관리를 위한 콘텐츠를 제공하는 방법 및 장치에 대한 것이다.
본 명세서의 일 실시예에 따른 인지능력 개발 서버에 의해 수행되는, 흡연 모니터링을 통한 혈관 관리 방법은, 사용자의 위치 정보를 수집하는 단계, 상기 사용자의 위치 정보를 기초로 흡연 여부를 판단하는 단계, 및 상기 사용자의 흡연 여부에 기초하여 디지털 치료제 콘텐츠를 제공하는 단계를 포함할 수 있다.
본 명세서의 일 실시예에 따른 흡연 모니터링을 통한 혈관 관리 방법을 수행하는 인지능력 개발 서버는, 상기 인지능력 개발 서버는, 사용자의 위치 정보를 수집하고, 상기 사용자의 위치 정보를 기초로 흡연 여부를 판단하는 모니터링 모듈, 상기 사용자의 흡연 여부에 기초하여 디지털 치료제 콘텐츠를 결정하는 분석 모듈, 상기 결정된 디지털 치료제 콘텐츠를 제공하는 콘텐츠 제공 모듈, 및 사용자의 피드백을 입력 받는 입력 모듈을 포함할 수 있다.
또한, 하기의 사항들은 공통으로 적용될 수 있다.
일 실시예에 있어서, 상기 사용자의 위치에 따라 흡연 여부를 판단할 수 있는 가능성을 기초로 복수의 영역으로 구획된 구역별 흡연 가능도 지도를 구축하는 단계를 더 포함할 수 있다.
일 실시예에 있어서, 상기 구역별 흡연 가능도 지도는, 도로의 위치, 인도를 기준으로 인접하는 건물의 종류, 구조물의 종류, 흡연 부스의 유무 중 하나 이상을 기초로 결정될 수 있다.
일 실시예에 있어서, 상기 사용자의 위치 정보를 기초로 흡연 여부를 판단하는 단계는, 상기 구역별 흡연 가능도 지도와, 상기 사용자의 위치 및 상기 사용자의 위치에 대한 체류 시간을 이용하여 상기 사용자의 흡연 확률을 판단하는 단계, 및 상기 흡연 확률이 미리 설정된 기준값 이상인 경우 상기 사용자의 흡연으로 판단하는 단계를 포함할 수 있다.
일 실시예에 있어서, 상기 사용자의 흡연 확률을 판단하는 단계는, 상기 사용자가 통화 중인 정보를 수신하는 경우, 상기 사용자의 위치가 흡연 부스가 아닌 경우 흡연 확률을 낮추고, 상기 사용자의 위치가 흡연 부스인 경우 흡연 확률을 유지하는 단계를 포함할 수 있다.
일 실시예에 있어서, 상기 사용자에게 흡연 여부를 확인하는 단계, 및 상기 확인의 결과에 따라 상기 구역별 흡연 가능도 지도를 업데이트 하는 단계를 더 포함할 수 있다.
일 실시예에 있어서, 상기 사용자의 흡연으로 판단한 경우, 상기 사용자의 혈압 및 심전도의 변화 정도를 기초로 상기 사용자의 흡입 강도를 추정하고, 상기 사용자의 흡입 강도 및 상기 사용자의 체류 시간을 기초로 상기 사용자의 흡연량을 추정하는 단계를 더 포함할 수 있다.
일 실시예에 있어서, 상기 디지털 치료제 콘텐츠는, 상기 사용자의 금연 과제를 설정하고, 흡연 교육 및 금연 목표 달성 플랜을 콘텐츠 내용으로 할 수 있다.
본 명세서의 일 실시예에 따른 컴퓨터로 판독 가능한 기록매체에 저장된 프로그램으로서, 상술한 방법을 수행하기 위한 명령어로 구성될 수 있다.
본 명세서는 흡연 모니터링을 통한 혈관 관리 방법 및 장치를 제공할 수 있다.
본 명세서는 사용자의 위치 정보를 이용하여 흡연상태를 모니터링 하고 모니터링 결과를 이용하여 혈관 관리하는 방법 및 장치를 제공할 수 있다.
본 명세서는 사용자의 흡연 여부 및 흡연량을 모니터링하여 이를 고려하여 디지털 치료제 콘텐츠를 제공할 수 있다.
본 명세서는 구역별 흡연 가능 지도를 구축하고, 사용자 위치 정보를 이용한 이동 경로 트래킹에 기초하여 사용자의 흡연 가능성을 판단하고, 사용자 흡연 상태를 고려하여 혈관 건강 관리를 위한 콘텐츠를 제공할 수 있다.
명세서의 효과는 상술한 바에 한정되지 아니하고, 하기에서 설명하는 발명의 실시예들에 의해 도출될 수 있는 다양한 사항들로 확장될 수 있다.
도 1은 일 실시예에 따른 인지능력 개발 시스템의 개략적인 블록도이다.
도 2는 일 실시예에 따른 인지능력 개발 방법의 각 단계를 도시하는 순서도이다.
도 3은 일 실시예에 따른 인지능력 개발 방법에 의한 데이터 처리 과정을 설명하기 위한 개념도이다.
도 4는 일 실시예에 따른 사용자 시점을 트래킹하는 방법을 나타낸 도면이다.
도 5a는 일 실시예에 따라 사용자 시점 트래킹에 기초하여 사용자 정보를 추출하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.
도 5b는 일 실시예에 따라 사용자 시점 트래킹에 기초하여 사용자 정보를 추출하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.
도 5c는 일 실시예에 따라 사용자 시점 트래킹에 기초하여 사용자 정보를 추출하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.
도 5d는 일 실시예에 따라 사용자 시점 트래킹에 기초하여 사용자 정보를 추출하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.
도 6a는 일 실시예에 따라 사용자 손을 트래킹하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.
도 6b는 일 실시예에 따라 사용자 손을 트래킹하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.
도 6c는 일 실시예에 따라 사용자 손을 트래킹하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.
도 7a는 일 실시예에 따라 사용자 시점 및 사용자 손을 트래킹하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.
도 7b는 일 실시예에 따라 사용자 시점 및 사용자 손을 트래킹하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다.
도 8a는 일 실시예에 따라 트래킹에 기초하여 가상 이미지를 조정하는 방법을 나타낸 도면이다.
도 8b는 일 실시예에 따라 트래킹에 기초하여 가상 이미지를 조정하는 방법을 나타낸 도면이다.
도 9a는 일 실시예에 따라 트래킹에 기초하여 사용자 상태를 파악하는 방법을 나타낸 도면이다.
도 9b는 일 실시예에 따라 트래킹에 기초하여 사용자 상태를 파악하는 방법을 나타낸 도면이다.
도 10은 일 실시예에 따라 흡연 모니터링을 통한 혈관 관리 방법을 나타낸 순서도이다.
도 11은 일 실시예에 따라 구역별 흡연 가능도를 판단하기 위해 구획된 지도를 나타낸 도면이다.
도 12는 일 실시예에 따라 사용자의 흡연 여부 및 흡연량을 확인하는 방법을 나타낸 도면이다.
도 13a는 일 실시예에 따라 사용자의 흡연 관리 상태를 표시하는 방법을 나타낸 도면이다.
도 13b는 일 실시예에 따라 사용자의 혈관 관리를 위한 상태 화면을 제공하는 방법을 나타낸 도면이다.
도 14a는 일 실시예에 따라 사용자의 혈관 관리를 위한 혈관 교육 메뉴를 제공하는 방법을 나타낸 도면이다.
도 14b는 일 실시예에 따라 사용자의 혈관 관리를 위한 흡연 교육 메뉴를 제공하는 방법을 나타낸 도면이다.
본 명세서의 실시예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 실시예의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 명세서의 실시예에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서의 실시예에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 명세서의 실시예에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 명세서의 실시예의 범위 내에서 실시예에서의 제1 구성요소는 다른 실시예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 실시예에서의 제2 구성요소를 다른 실시예에서 제1 구성요소라고 칭할 수도 있다.
본 명세서의 실시예에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시예도 본 명세서의 실시예의 범위에 포함된다.
본 명세서에서 네트워크는 유무선 네트워크를 모두 포함하는 개념일 수 있다. 이때, 네트워크는 디바이스와 시스템 및 디바이스 상호 간의 데이터 교환이 수행될 수 있는 통신망을 의미할 수 있으며, 특정 네트워크로 한정되는 것은 아니다.
본 명세서에 기술된 실시예는 전적으로 하드웨어이거나, 부분적으로 하드웨어이고 부분적으로 소프트웨어이거나, 또는 전적으로 소프트웨어인 측면을 가질 수 있다. 본 명세서에서 "부(unit)", "장치" 또는 "시스템" 등은 하드웨어, 하드웨어와 소프트웨어의 조합, 또는 소프트웨어 등 컴퓨터 관련 엔티티(entity)를 지칭한다. 예를 들어, 본 명세서에서 부, 모듈, 장치 또는 시스템 등은 실행중인 프로세스, 프로세서, 객체(object), 실행 파일(executable), 실행 스레드(thread of execution), 프로그램(program), 및/또는 컴퓨터(computer)일 수 있으나, 이에 제한되는 것은 아니다. 예를 들어, 컴퓨터에서 실행중인 애플리케이션(application) 및 컴퓨터의 양쪽이 모두 본 명세서의 부, 모듈, 장치 또는 시스템 등에 해당할 수 있다.
또한, 본 명세서에서 디바이스는 스마트폰, 태블릿 PC, 웨어러블 디바이스 및 HMD(Head Mounted Display)와 같이 모바일 디바이스뿐만 아니라, PC나 디스플레이 기능을 구비한 가전처럼 고정된 디바이스일 수 있다. 또한, 일 예로, 디바이스는 차량 내 클러스터 또는 IoT (Internet of Things) 디바이스일 수 있다. 즉, 본 명세서에서 디바이스는 어플리케이션 동작이 가능한 기기들을 지칭할 수 있으며, 특정 타입으로 한정되지 않는다. 하기에서는 설명의 편의를 위해 어플리케이션이 동작하는 기기를 디바이스로 지칭한다.
본 명세서에 있어서 네트워크의 통신 방식은 제한되지 않으며, 각 구성요소간 연결이 동일한 네트워크 방식으로 연결되지 않을 수도 있다. 네트워크는, 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망, 위성망 등)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크는, 객체와 객체가 네트워킹 할 수 있는 모든 통신 방법을 포함할 수 있으며, 유선 통신, 무선 통신, 3G, 4G, 5G, 혹은 그 이외의 방법으로 제한되지 않는다. 예를 들어, 유선 및/또는 네트워크는 LAN(Local Area Network), MAN(Metropolitan Area Network), GSM(Global System for Mobile Network), EDGE(Enhanced Data GSM Environment), HSDPA(High Speed Downlink Packet Access), W-CDMA(Wideband Code Division Multiple Access), CDMA(Code Division Multiple Access), TDMA(Time Division Multiple Access), 블루투스(Bluetooth), 지그비(Zigbee), 와이-파이(Wi-Fi), VoIP(Voice over Internet Protocol), LTE Advanced, IEEE802.16m, WirelessMAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX (IEEE 802.16e), UMB (formerly EV-DO Rev. C), Flash-OFDM, iBurst and MBWA (IEEE 802.20) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX(World Interoperability for Microwave Access) 및 초음파 활용 통신으로 이루어진 군으로부터 선택되는 하나 이상의 통신 방법에 의한 통신 네트워크를 지칭할 수 있으나, 이에 한정되는 것은 아니다.
다양한 실시예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 실시예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시예도 본 명세서의 실시예의 범위에 포함된다. 또한, 다양한 실시예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시예도 본 명세서의 실시예의 범위에 포함된다.
이하에서, 도면을 참조하여 본 명세서의 실시예들에 대하여 상세히 살펴본다.
도 1은 일 실시예에 따른 인지능력 개발 시스템의 개략적인 블록도이다.
도 1을 참조하면, 본 실시예에 따른 인지능력 개발 시스템(2)은 콘텐츠 제공 모듈(21), 입력 모듈(22), 분석 모듈(23), 머신러닝(machine learning) 모듈(24) 및 모니터링 모듈(25)을 포함한다. 또한, 각각의 모듈(21-25)은 하나 또는 복수의 기능 부(unit)를 포함할 수 있다.
실시예들에 따른 인지능력 개발 시스템(2)과 이에 포함된 각 모듈(21-25) 또는 부는, 전적으로 하드웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 인지능력 개발 시스템(2)의 각 모듈(21-25) 또는 부는 특정 형식 및 내용의 데이터를 처리하거나 또는/또한 전자통신 방식으로 주고받기 위한 하드웨어 및 이에 관련된 소프트웨어를 통칭할 수 있다. 본 명세서에서 "부", "모듈", "장치", "단말기", "서버" 또는 "시스템" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 하드웨어는 CPU 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 하드웨어에 의해 구동되는 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.
또한, 인지능력 개발 시스템(2)을 구성하는 각각의 요소는 반드시 서로 물리적으로 구분되는 별개의 장치를 지칭하는 것으로 의도되지 않는다. 즉, 도 1의 콘텐츠 제공 모듈(21), 입력 모듈(22), 분석 모듈(23), 머신러닝 모듈(24) 및 모니터링 모듈(25)은 인지능력 개발 시스템(2)을 구성하는 하드웨어를 해당 하드웨어에 의해 수행되는 동작에 따라 기능적으로 구분한 것일 뿐, 반드시 각각의 부가 서로 독립적으로 구비되어야 하는 것이 아니다. 인지능력 개발 시스템(2)은 하나의 인지능력 개발 서버로 구성되거나 또는 여러 개의 서버로 구성될 수 있다. 물론, 실시예에 따라서는 콘텐츠 제공 모듈(21), 입력 모듈(22), 분석 모듈(23), 머신러닝 모듈(24) 및 모니터링 모듈(25) 중 하나 이상이 서로 물리적으로 구분되는 별개의 장치로 구현되는 것도 가능하다.
콘텐츠 제공 모듈(21)은 인지능력 개발을 위한 콘텐츠를 사용자에게 제공하도록 구성된다. 예를 들어, 콘텐츠 제공 모듈(21)은 사용자 장치(1)에 구비된 디스플레이 수단 및 소리 출력 수단 등을 이용하여 콘텐츠를 사용자에게 제시할 수 있도록 사용자 장치(1)에 콘텐츠를 전송하기 위한 부분일 수 있다. 이상의 동작을 위하여, 인지능력 개발 시스템(2)은 유선 및/또는 무선 네트워크를 통하여 사용자 장치(1)와 통신할 수 있다. 본 명세서에서 유선 및/또는 무선 네트워크를 통한 통신 방법은 객체와 객체가 네트워킹 할 수 있는 모든 통신 방법을 포함할 수 있으며, 유선 통신, 무선 통신, 3G, 4G, 혹은 그 이외의 방법으로 제한되지 않는다.
도 1에서 사용자 장치(1)는 태블릿(tablet) 컴퓨터의 형태로 도시되었으나, 이는 예시적인 것으로서, 사용자 장치(1)는 스마트폰(smartphone) 등 모바일 컴퓨팅 장치, 노트북 컴퓨터, 개인용 컴퓨터(Personal Computer; PC) 등 임의의 컴퓨팅 장치로 구성될 수 있다.
일 실시예에서, 인지능력 개발 시스템(2)은 적어도 부분적으로 사용자 장치(1)상에서 실행되는 애플리케이션(또는, 앱(app))과 통신함으로써 애플리케이션의 기능 수행을 가능하게 하는 애플리케이션 서버의 기능을 수행할 수 있다. 또한, 인지능력 개발 시스템(2)은 적어도 부분적으로 사용자 장치(1)상에서 실행되는 웹 브라우저(web browser) 등을 통하여 접속 가능한 소정의 웹 페이지(web page)를 제공하는 웹 서버(web server)의 기능을 수행할 수도 있다.
그러나 이는 예시적인 것으로서, 다른 실시예에서는 인지능력 개발 시스템(2) 자체가 사용자가 사용하는 장치의 형태로 구성될 수 있으며, 이 경우 사용자는 인지능력 개발 시스템(2)을 통해 직접 콘텐츠를 이용할 수 있으므로 도 1에 도시된 사용자 장치(1)는 생략될 수도 있다.
본 발명의 실시예들에서, 콘텐츠 제공 모듈(21)을 통하여 제시되는 인지능력 개발 콘텐츠는 복수 개의 인지 영역에 관련된 것일 수 있다. 본 명세서에서 복수 개의 인지 영역이란, 치매 등으로 인한 인지능력의 저하를 방지하거나 저하 속도를 늦추는 등 인지능력을 개선하기 위하여 서로 상이한 관점에서 사용자의 인지능력 개선을 위한 활동을 유도하기 위한 다각적인 분야들 의미한다.
예를 들어, 일 실시예에서 인지능력 개발 시스템(2)은 인지능력의 개선을 위하여 관리가 필요한 내용들을 혈관질환 관리, 인지 훈련, 운동, 영양 관리 및 동기 강화의 5개의 인지 영역으로 구분할 수 있다. 이때, 인지능력 개발 시스템(2)에 의해 제공되는 인지능력 개발 콘텐츠는 전술한 5개의 인지 영역 중 하나 또는 복수의 인지 영역의 능력 개선을 목표로 하며, 특정한 인지 영역의 강화를 목표로 개발된 것일 수 있으며 이를 본 명세서에서는 인지능력 개발 콘텐츠의 특성으로 지칭한다. 예를 들어, 인지능력 개발 콘텐츠는 특정 분야의 능력 강화를 목적으로 하는 게임의 형식을 가질 수 있다.
입력 모듈(22)은, 콘텐츠 제공 모듈(21)을 통해 사용자에게 제공된 콘텐츠에 대한 사용자의 학습 데이터를 사용자 장치(1)로부터 수신하도록 구성된다. 또는, 인지능력 개발 시스템(2)이 사용자의 개인용 컴퓨터 등 사용자 장치 형태로 구현되는 경우, 입력 모듈(22)은 키보드나 터치스크린 등의 입력 수단(미도시)을 통해 학습 데이터를 입력받을 수 있다.
분석 모듈(23)은, 입력 모듈(22)에 입력된 학습 데이터를 분석하여 복수 개의 인지 영역별 성과 정보를 산출하도록 구성된다. 예를 들어, 분석 모듈(23)은 각 인지 영역의 콘텐츠(예컨대, 게임)에 대한 인지 점수, 각 영역의 콘텐츠에 대한 소모 시간, 영역별 진행율 및/또는 참여율 등을 토대로 성과 정보를 결정할 수 있다.
이를 위하여, 일 실시예에서 분석 모듈(23)은 각 영역에 대한 사용자의 학습 결과인 인지 점수를 분석하는 결과 분석부(231) 및/또는 각 영역의 콘텐츠의 목표 달성에 대해 소요된 시간과 콘텐츠에 대한 사용자의 응답 시간 등 소모 시간에 대한 정보를 분석하는 과정 분석부(232)를 포함할 수 있다.
또한 일 실시예에서, 분석 모듈(23)은 프로파일링(profiling)부(233)를 더 포함한다. 본 실시예에서 사용자는 입력 모듈(22)을 통하여 자신의 개인 정보, 예컨대, 성별, 나이, 거주환경(세대 구성원 수 등), 흡연 여부, 흡연량, 과거의 치매 진단 여부 등 병력과 같은 정보를 입력할 수 있다. 프로파일링부(233)는, 이러한 개인 정보를 토대로, 학습 데이터로부터 성과 정보를 도출하기 위한 기준값을 결정하도록 구성된다. 이때 기준값이란, 인지 점수나 소모 시간을 성과값으로 변환하기 위한 구간에 대한 정보, 인지 점수나 소모 시간에 적용되기 위한 가중치 정보, 또는 사용자의 성별/나이/거주환경/흡연여부/병력 등이 성과값에 영향을 미치도록 하는 다른 임의의 방식의 조정값을 지칭할 수 있다.
머신러닝 모듈(24)은, 사전에 입력된 훈련 데이터 셋(training data set)을 이용하여 머신러닝에 의한 학습을 수행한 결과를 저장하고 있으며, 분석 모듈(23)에 의해 얻어진 성과 정보에 대해 머신러닝의 학습 결과를 적용함으로써 사용자 맞춤형 콘텐츠의 특성을 결정하는 기능을 한다.
머신러닝 모듈(24)은 또한, 사용자의 위치와 흡연 여부에 대한 모니터링 모듈(25)의 분석 결과에 대해 사용자의 피드백을 통해 학습을 수행하고 결과를 적용함으로써 모니터링 모듈(25)에서 사용자의 위치에 따른 흡연 여부 분석의 정확도를 향상시킬 수 있다.
이상의 동작을 위하여, 머신러닝 모듈(240)은 훈련 데이터 셋을 이용한 머신 러닝을 수행하는 머신러닝 모델 학습부(241)와, 학습 결과를 기반으로 사용자의 성과 정보에 대한 맞춤형 콘텐츠를 판정하거나, 사용자 위치 정보를 이용하여 흡연 여부를 판정하는 머신러닝 모델 판정부(242)를 포함할 수 있다.
일 실시예에서, 입력 모듈(22)은 훈련 데이터 셋을 입력받고 이를 머신러닝을 위하여 머신러닝 모델 학습부(241)에 입력하는 기능을 더 수행할 수 있다. 이때, 입력 모듈(22)은 데이터 라벨링(labeling)부(222)를 포함할 수 있다. 데이터 라벨링부(222)는, 훈련 데이터 셋에 포함된 데이터들에 대하여 해당 데이터를 제공한 사용자의 인지능력 개선에 적합한 것으로 전문가나 임상 결과 등에 의하여 결정된 맞춤형 콘텐츠 정보(즉, 정답)를 이용하여 훈련 데이터 셋의 데이터들을 라벨링하고, 라벨링된 데이터를 머신러닝 모델 학습부(241)에 제공할 수 있다.
또한, 입력 모듈(22)은 개인 정보 처리부(223)를 더 포함할 수도 있다. 개인 정보 처리부(223)는, 머신러닝 모델 학습부(241)가 훈련 데이터 셋을 이용한 학습을 수행함에 있어서, 각 사용자의 민감한 개인 정보가 노출되지 않도록 개인 정보에 대한 마스킹(masking)을 수행할 수 있다. 이때 마스킹이란, 민감한 정보 자체를 훈련 데이터 셋으로부터 삭제하는 것을 의미할 수도 있으며, 또는 해당 정보를 삭제하지 않더라도 데이터 레코드들과 이를 제공한 개인을 매칭(matching)시키는 것이 불가능하도록 데이터를 분할, 조합 또는 재구성하는 것을 지칭할 수 있다.
머신러닝 모듈(24)의 머신러닝 모델 판정부(242)는, 머신러닝 모델 학습부(241)에 의하여 선행 누적된 데이터를 바탕으로 사용자의 성과 정보에 상응하는 사용자의 유형을 판정하고, 해당 사용자에게 적합한 맞춤형 콘텐츠의 특성을 결정할 수 있다. 예를 들어, 사용자의 유형을 판정한다는 것은 복수의 인지 영역에서 사용자가 보여준 성과의 패턴을 기준으로 사용자들을 분류(classification)하거나 군집화(clustering)하는 것을 의미할 수 있으며, 머신러닝 모델 판정부(242)는 이러한 유형을 이용하여 해당 사용자 분류 또는 군집의 인지능력 개선에 적합한 맞춤형 콘텐츠를 결정할 수 있다. 머신러닝 모델 판정부(242)는 또한, 모닝터링 모듈(25)에 의하여 분석된 위치 및 흡연 여부, 그에 대한 사용자의 피드백 데이터를 바탕으로 사용자의 위치에 따른 사용자의 흡연 여부를 판정하고, 사용자의 위치에 따른 적합한 흡연 특성을 결정할 수 있다. 예를 들어, 위치 구역 별로 흡연 가능도를 분류하거나 군집화하는 것을 의미할 수 있다.
모니터링 모듈(25)은 사용자 장치(1)의 이동 경로를 모니터링 하고 사용자의 흡연 여부를 판단하도록 구성된다. 예를 들어, 모니터링 모듈(25)은 사용자 장치(1)의 GPS 정보 등을 이용하여 사용자 이동 경로를 추정하고, 구역별 흡연 가능도 지도를 기초로 흡연 여부를 확률적으로 판단할 수 있다. 흡연 가능도 지도는 흡연 가능성을 기초로 복수의 영역으로 구획되 지도를 의미하며, 흡연 가능성에 대한 개별 영역의 결정은 인도를 기준으로 인접하는 건물의 종류, 구조물 등을 기초로 결정될 수 있다. 모니터링 모듈(25)은 사용자의 추정 위치에 대한 흡연 가능도에 체류 시간, 심박수 변화, 산소포화도 등을 기초로 흡연 여부 및 흡연량을 판단할 수 있다. 이 과정에서 머신러닝 학습을 통해 추정의 정확도를 높일 수 있다.
이를 위하여, 일 실시예에서 모니터링 모듈(25)은 사용자 장치(1) 센싱 데이터를 이용하여 사용자의 위치 및 이동 경로를 분석하는 위치 분석부(251) 및 사용자 위치에 대한 흡연 가능도를 기반하여 사용자의 흡연 여부 및 흡연량을 분석하는 흡연 분석부(252)를 포함할 수 있다.
모니터링 모듈(25)은 사용자 장치(1)에서 수집된 센싱 데이터를 수신할 수 있다. 일 실시예에서, 사용자 장치(1)는 스마트폰 등 모바일 컴퓨팅 장치이거나 스마트 워치 등의 각종 웨어러블 디바이스일 수 있다. 다른 실시예에서, 인지능력 개발 시스템(2) 자체가 사용자 장치일 수 있으며, 인지능력 개발 시스템(2) 자체의 센서 정보를 사용자 위치 추정 및 흡연 판단에 이용할 수 있다. 센서 정보는 예를 들어, 위치 센서(GPS 모듈 등) 정보, 가속도 센서, 굽힘 센서, 자이로 센서, 중력 센서, 속도 센서, 생체 센서 감지 센서 중 하나 이상을 포함할 수 있다.
도 2는 일 실시예에 따른 인지능력 개발 방법의 각 단계를 도시하는 순서도이다. 설명의 편의를 위하여, 도 1 및 도 2를 참조하여 본 실시예에 따른 인지능력 개발 방법에 대하여 설명한다.
도 2를 참조하면, 먼저 머신러닝 기반의 학습 과정으로서 인지능력 개발 시스템(2)의 입력 모듈(22)은 훈련 데이터 셋을 수신할 수 있다(S11). 훈련 데이터 셋은 관리자의 사용자 장치로부터 입력 모듈(22)에 입력 또는 전송되거나, 또는 외부의 서버(미도시)로부터 수신될 수 있다.
훈련 데이터 셋을 이용하여 머신러닝을 수행하기 위한 전처리 과정으로서, 입력 모듈(22)의 데이터 라벨링부(222)는 훈련 데이터 셋의 각 데이터들에 의하여 전문가나 임상 등을 토대로 결정된 맞춤형 콘텐츠 정보를 이용하여 데이터들을 라벨링할 수 있다(S12). 또한, 입력 모듈(22)의 개인 정보 처리부(223)는 훈련 데이터 셋의 데이터들로부터 민감한 정보를 제거하거나 민감한 정보가 데이터 제공자 개인과 연관되지 않도록 하는 마스킹을 수행할 수도 있다(S12).
인지능력 개발 시스템(2)의 머신러닝 모듈(24)은, 라벨링 및 마스킹 등이 완료된 데이터를 입력받고 이를 이용하여 학습 데이터로부터 맞춤형 콘텐츠를 결정하기 위한 학습 결과를 생성할 수 있다(S13). 예를 들어, 학습 결과란 학습 데이터의 패턴을 기반으로 사용자의 유형을 판정하고, 해당 유형의 사용자에게 적용되기에 적합한 콘텐츠의 특성, 예컨대, 콘텐츠에 상응하는 인지 영역의 종류 및 개수 등을 결정하기 위한 것일 수 있다.
이상에서 설명한 머신러닝에 의한 학습 과정(S11-S13)은, 머신러닝 모듈(24)의 머신러닝 모델 학습부(241)에 의하여 수행될 수 있다. 그러나 다른 실시예에서, 머신러닝 모듈(24)은 외부의 장치나 서버 등으로부터 머신러닝 결과에 해당하는 알고리즘 및 파라미터 등을 수신하고 이를 기반으로 동작할 수도 있으며, 이 경우 전술한 학습 과정(S11-S13)은 생략될 수 있다.
먼저 인지능력 개발 시스템(2)의 모니터링 모듈(25)은 사용자 장치(1)의 센서 정보를 이용하여 사용자 위치를 분석 및 모니터링 하고, 사용자의 위치 정보에 기반하여 사용자의 흡연 여부를 판단할 수 있다(S21). 모니터링 모듈(25)은 사용자의 흡연 여부를 분석하고 이를 바탕으로 사용자의 혈관 건강 상태를 모니터링할 수 있다.
머신러닝에 의한 학습 결과를 기반으로 대상 사용자에게 맞춤형 콘텐츠를 제공하기 위하여, 인지능력 개발 시스템(2)의 콘텐츠 제공 모듈(21)은 복수 개의 인지 영역별 특성을 갖는 인지능력 개발 콘텐츠를 사용자에게 제공할 수 있다(S22). 특히, 인지능력 개발 시스템(2)은 사용자의 흡연 여부의 판단 결과에 따라 혈관질환 관리 영역에서 사용자에게 맞는 디지털 콘텐츠를 제공할 수 있다.
다음으로, 인지능력 개발 시스템(2)의 입력 모듈(22)은 제공된 콘텐츠에 대한 사용자의 학습 데이터를 수신할 수 있다(S23). 예를 들어, 학습 데이터란 예컨대 게임과 같은 형식을 가지는 콘텐츠를 통하여 제공되는 과제를 사용자가 해결함으로써 달성한 인지 점수나, 해당 과제의 달성에 사용자가 소모한 시간, 콘텐츠 내의 일련의 과제들에 대한 사용자의 진행율이나 참여율 등을 포함할 수 있다.
일 실시예에서, 입력 모듈(22)은 학습 데이터의 수신과 동시에 또는 학습 데이터의 수신 전 또는 후에 콘텐츠에 참여하는 사용자의 개인 정보를 더 수신할 수도 있다(S24). 예를 들어, 개인 정보는 사용자의 성별/나이/거주환경/흡연여부/병력 등의 정보를 포함할 수 있으나, 이에 한정되는 것은 아니다.
인지능력 개발 시스템(2)의 분석 모듈(23)은, 사용자의 학습 데이터로부터 해당 학습 데이터가 나타내는 사용자의 유형을 판정하기에 적합한 성과 정보를 도출할 수 있다(S25). 예를 들어, 성과 정보는 사용자가 콘텐츠에 대하여 달성한 인지 점수, 소모 시간, 진행율, 참여율 등을 지칭하는 것이거나, 또는 소정의 기준(등급, 문턱값, 가중치 등)에 의하여 이러한 정보를 성과값으로 변환한 것일 수 있다.
인지능력 개발 시스템(2)의 머신러닝 모듈(24)은, 분석 모듈(23)에 의하여 도출된 성과 정보에 기초하여 사용자 맞춤형 콘텐츠를 결정할 수 있다(S26). 이는, 머신러닝 모델을 통해 결정된 사용자의 유형을 토대로, 해당 사용자에게 다음에 제시되기에 적합한 인지능력 개발 콘텐츠의 특성(종류, 난이도, 제한 시간 등)을 결정하는 것을 의미할 수 있으며, 이에 대해서는 상세히 후술한다.
도 3은 일 실시예에 따른 인지능력 개발 방법에 의한 데이터 처리 과정을 설명하기 위한 개념도이다.
도 3을 참조하면, 본 발명의 실시예들에 따른 인지능력 개발 방법에서는 사용자의 학습 데이터로부터 사용 이력, 진행율, 인지 점수 및/또는 참여율 등의 정보를 도출하고, 이를 성과 정보로 이용하여 사용자에게 제공되기 위한 맞춤형 콘텐츠를 결정할 수 있다.
일 예로, 하기에서는 상술한 인지능력 개발 시스템(2)에 기초하여 사용자를 분석하여 콘텐츠를 제공하는 경우에 있어서 사용자 시점을 트래킹하여 고도화된 디지털 치료제를 제공하는 방법에 대해 서술한다. 일 예로, 디지털 치료제는 소프트웨어 의료기기일 수 있다. 보다 상세하게는, 상술한 인지능력 개발 시스템(2)에 기초하여 사용자 인지 상태 정보를 분석하고, 분석된 사용자 인지 상태 정보에 기초하여 사용자에게 콘텐츠를 제공하여 사용자 인지 능력을 향상시킴으로써 질병(e.g. 치매)의 예방, 관리 및 치료를 목적으로 하는 소프트웨어 의료기기일 수 있다. 일 예로, 디지털 치료제는 사용자의 데이터를 수집, 관리 및 저장하여 환자 맞춤형 분석과 치료를 가능하게 하는 소프트웨어 의료기기일 수 있다. 일 예로, 디지털 치료제는 상술한 바와 같이 인지능력 개발 시스템(2)에 기초하여 사용자를 분석하여 콘텐츠를 제공함으로써 사용자의 인지능력을 향상시키는 것을 의미할 수 있으며, 특정 실시예로 한정되지 않는다. 하기에서는 설명의 편의를 위해 인지능력 개발 시스템(2)에 기초하여 수행되는 디지털 치료제를 서술하지만, 이에 한정되는 것은 아닐 수 있다.
일 예로, 인지능력 개발 시스템(2)은 사용자 시점 트래킹을 이용하여 사용자 정보를 분석하여 사용자 인지 상태를 판단할 수 있다. 이때, 사용자 시점 트래킹을 위해서 카메라가 이용될 수 있다. 구체적인 일 예로, 카메라는 사용자 장치(1)에 장착되어 콘텐츠를 제공받는 사용자의 시점(또는 시선), 얼굴, 손 및 그 밖의 신체를 트래킹할 수 있다. 일 예로, 카메라는 윈도우 OS 기반 태블릿 또는 데스크탑에 장착할 수 있는 웹캠으로써 사용자 시점(또는 시선), 얼굴, 손바닥 및 그 밖의 신체의 좌표를 추출할 수 있다. 이때, 인지능력 개발 시스템(2)은 카메라를 통해 추출된 좌표 값을 지속적으로 트래킹하여 사용자 인지 상태를 파악할 수 있으며, 이를 통해 디지털 치료제로써 인지능력 개발 시스템(2)이 사용자 상태를 정확하게 인지하도록 할 수 있다.
구체적인 일 예로, 도 4는 일 실시예에 따른 사용자 시점을 트래킹하는 방법을 나타낸 도면이다. 도 4를 참조하면, 카메라(3)는 상술한 태블릿(1) 및 그 밖의 디바이스에 설치될 수 있다. 일 예로, 카메라(3)는 사용자에게 콘텐츠를 제공하는 디바이스의 상단에 부착되거나 디바이스와 결합된 형태일 수 있으며, 특정 실시예로 한정되지 않는다. 여기서, 카메라(3)는 상술한 바와 같이 사용자의 손(41), 얼굴(42) 및 시점(또는 시선, 43) 중 적어도 어느 하나 이상을 추출하여 좌표 값을 도출할 수 있다. 이때, 인지능력 개발 시스템(2)은 카메라(3)를 통해 추출된 좌표 값의 변화를 트래킹하여 사용자 인지 상태를 판단할 수 있다. 일 예로, 카메라(3)가 사용자의 손(41)을 트래킹하는 경우, 사용자의 손(41)의 중심 지점을 좌표 값의 기준점으로 설정하고, 이에 기초하여 트래킹을 수행할 수 있다. 또 다른 일 예로, 사용자의 손(41) 각 지점의 좌표 값을 도출하고, 도출된 좌표 값들의 평균을 통해 사용자 손(41)의 트래킹을 수행할 수 있다. 또 다른 일 예로, 카메라(3)가 얼굴(42)을 트래킹하는 경우, 얼굴(42)의 중심 지점을 좌표 값의 기준점으로 설정하고, 이에 기초하여 트래킹을 수행할 수 있다. 또 다른 일 예로, 얼굴(42) 각 지점의 좌표 값을 도출하고, 도출된 좌표 값들의 평균을 통해 얼굴(42)의 트래킹을 수행할 수 있다. 또 다른 일 예로, 카메라(3)가 시점(43)을 트래킹하는 경우, 사용자 눈의 중심 지점을 좌표 값의 기준점으로 설정하고, 이에 기초하여 트래킹을 수행할 수 있다. 또 다른 일 예로, 사용자 눈의 각 지점의 좌표 값을 도출하고, 도출된 좌표 값들의 평균을 통해 사용자 눈의 트래킹을 수행할 수 있다.
상술한 바를 통해, 인지능력 개발 시스템은 사용자의 손(41), 얼굴(42), 시점(43) 및 그 밖의 신체를 트래킹할 수 있으며, 이를 통해 사용자 상태를 파악하여 사용자에 맞는 콘텐츠를 제공함으로써 사용자 인지능력 향상을 효율적으로 수행할 수 있다.
구체적인 일 예로, 도 5a 내지 도 5d는 일 실시예에 따라 사용자 시점 트래킹에 기초하여 사용자 정보를 추출하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다. 도 5a를 참조하면, 인지능력 개발 시스템(2)은 사용자 인지 상태 정보에 기초하여 콘텐츠를 사용자에게 제공할 수 있다. 일 예로, 인지능력 개발 시스템(2)의 콘텐츠 제공 모듈(21)을 통해 사용자에게 콘텐츠가 제공될 수 있다. 이때, 사용자는 인지능력 개발 시스템(2)에 의해 제공되는 콘텐츠에 기초하여 학습을 수행할 수 있으며, 이를 통해 인지능력 개발 시스템(2)은 사용자 인지상태를 확인할 수 있다. 구체적인 일 예로, 인지능력 개발 시스템(2)의 입력 모듈(22)은 콘텐츠 제공 모듈(21)을 통해 사용자에게 제공된 콘텐츠에 대한 사용자의 학습 데이터를 사용자 장치(1)로부터 수신하도록 구성될 수 있다. 일 예로, 인지능력 개발 시스템(2)이 사용자의 개인용 컴퓨터 등 사용자 장치 형태로 구현되는 경우, 입력 모듈(22)은 키보드나 터치스크린 등의 입력 수단(미도시)을 통해 학습 데이터를 입력받을 수 있다.
이때, 분석 모듈(23)은 입력 모듈(22)에 입력된 학습 데이터를 분석하여 사용자 인지 상태 정보를 획득할 수 있다. 일 예로, 사용자 인지 상태 정보는 복수 개의 인지 영역별 성과 정보를 산출하도록 구성될 수 있다. 분석 모듈(23)은 각 인지 영역의 콘텐츠(e.g. 게임)에 대한 인지 점수, 각 영역의 콘텐츠에 대한 소모 시간, 영역별 진행율 및 참여율 중 적어도 어느 하나에 기초하여 성과 정보를 결정할 수 있으며, 이를 통해 사용자 인지상태 정보를 도출할 수 있다.
구체적인 일 예로, 도 5a를 참조하면, 인지능력 개발 시스템(2)은 콘텐츠로써 사용자에게 질문 정보(501)와 답변 정보(502)를 제공할 수 있다. 일 예로, 사용자는 질문 정보(501)에 기초하여 학습 데이터로써 답 정보를 도출하고, 이를 답변 정보(502)에 입력할 수 있다. 또한, 일 예로, 인지능력 개발 시스템(2)은 학습을 고려하여 관련 콘텐츠(51, 52, 53, 54, 55, 56, 57)를 제공할 수 있다. 이때, 사용자가 관련 콘텐츠(51, 52, 53, 54, 55, 56, 57)를 답변 정보(502)에 입력함으로써 학습 데이터가 생성될 수 있으며, 인지능력 개발 시스템(2)은 생성된 학습 데이터를 획득할 수 있다. 구체적인 일 예로, 도 5a에서 질문에 대한 답을 입력하기 위해 자음/모음이 과일 모양 콘텐츠로써 사용자에게 제공될 수 있다. 이때, 사용자는 답 정보에 대응되는 자음 또는 모음이 포함됨 과일을 선택함으로써 답변 정보(502)를 완성할 수 있으며, 이를 통해 학습 데이터가 생성될 수 있다. 이때, 일 예로, 학습 데이터는 사용자가 답변 정보(502)를 기 설정된 값에 대응되게 입력하는지 여부에 대한 정보를 포함할 수 있다. 즉, 사용자가 답을 맞췄는지 여부에 대한 정보를 획득할 수 있다.
또 다른 일 예로, 학습 데이터는 사용자가 답변 정보(502)에 답을 입력하는 시간 정보를 더 포함할 수 있다. 일 예로, 사용자의 답변 정보(502) 입력 시간이 짧으면 사용자 인지상태가 높은 등급으로 판단될 수 있고, 입력 시간이 길면 사용자 인지상태가 낮은 등급으로 판단될 수 있다. 또 다른 일 예로, 인지능력 개발 시스템(2)은 사용자 시점 정보를 더 트래킹하여 학습 데이터를 생성할 수 있다. 보다 상세하게는, 도 5b를 참조하면, 인지능력 개발 시스템(2)은 상술한 바와 같이, 카메라(3)를 통해 사용자 시점(43)에 대한 좌표 값을 도출하고, 시점(43)을 트래킹할 수 있다. 구체적인 일 예로, 사용자 시점(43)은 질문 정보(501)를 확인한 후 답변 정보(502)를 확인하는 방향으로 이동한 후 답변 정보(502) 입력을 위한 콘텐츠(51, 52, 53, 54, 55, 56, 57)로 이동할 수 있다. 이를 통해, 인지능력 개발 시스템(2)이 사용자가 제공되는 콘텐츠를 어떻게 인지하는지 확인할 수 있다.
일 예로, 도 5c를 참조하면, 사용자가 질문 정보(501) 및 답변 정보(502)에서 트래킹되는 시점(43)이 기 설정된 횟수 이상으로 트래킹됨은 확인할 수 있다. 즉, 사용자가 질문 정보(501) 및 답변 정보(502)를 여러 번 읽는 것을 확인할 수 있으며, 이는 사용자 인지 상태가 낮음 등급임을 확인할 수 있다. 또 다른 일 예로, 사용자의 시점(43)이 답변 정보(502) 입력을 위한 콘텐츠(51, 52, 53, 54, 55, 56, 57)에서 오랜기간 유지되나 답변 정보(502)를 도출하지 못한 경우, 인지능력 개발 시스템(2)은 사용자 인지 상태가 낮은 등급임을 확인할 수 있다. 즉, 인지능력 개발 시스템(2)은 사용자 시점(43) 트래킹을 통해 사용자 인지 상태를 확인할 수 있으며, 이를 통해 사용자 인지 상태를 보다 정확하게 인지할 수 있다.
일 예로, 도 5c를 참조하면, 인지능력 개발 시스템(2)은 사용자 인지 상태를 판단하기 위한 정보로써 타임라인 정보(503)를 더 디스플레이할 수 있으며, 이에 기초하여 사용자가 답변 정보(502)를 도출하는데 필요한 시간을 인지할 수 있다.
이때, 상술한 사용자 인지 상태 정보에 기초하여 인지능력 개발 시스템(2)은 제공되는 콘텐츠를 제어할 수 있다. 구체적인 일 예로, 도 5d를 참조하면, 인지능력 개발 시스템(2)은 전면 카메라(3)를 통해 사용자의 시점(43)을 트래킹하고, 시점(43)을 기초로 각 단어 조각들(자음/ 모음)을 둘러싸는 모양(바나나, 오이, 양상추 등)이나 색상 및 크기를 조정하거나 힌트를 제공할 수 있다. 일 예로, 도 5d에서 답변 정보(502)에 입력되는 콘텐츠(51, 52, 53, 55)는 사용자 인지 상태가 낮음을 고려하여 크기가 커질 수 있고, 색상도 눈에 잘 띄는 색상으로 변경될 수 있다. 또 다른 일 예로, 사용자의 시선 이동이 빠르고, 답변 정보(502) 입력 시간이 짧은 경우, 사용자 인지 상태 등급이 높은 경우일 수 있다. 이때, 사용자 인지 상태 등급이 높기 때문에 제공되는 콘텐츠(51, 52, 53, 54, 55, 56, 57)의 크기를 줄이고, 색상도 유사하게 함으로써 문제 난이도를 높일 수 있다. 즉, 인지능력 개발 시스템(2)은 사용자 시점(43) 트래킹을 통해 사용자 인지 상태를 확인하고, 확인된 사용자 인지 상태에 맞는 콘텐츠를 제공할 수 있다.
보다 구체적인 일 예로, 인지능력 개발 시스템(2)은 사용자 시점(43)을 트래킹해서, 사용자가 질문 정보(501)를 몇 번 읽는지 여부를 카운팅할 수 있다. 일 예로, 사용자가 질문 정보(501)를 기 설정된 횟수 이상 확인하는 경우, 사용자 인지 상태 등급이 낮을 수 있으며, 이러한 경우에 문제 난이도를 낮추기 위해 상술한 바와 같이 콘텐츠 크기를 키우거나 색상을 눈에 띄게 변경할 수 있으며, 이를 통해 효율적인 콘텐츠를 제공할 수 있다. 또 다른 일 예로, 사용자 시점(43)을 트래킹해서 정답 단어 조각을 기 설정된 횟수 이상 지나가는 경우, 인지능력 개발 시스템(2)은 기 설정된 횟수를 카운팅하여 힌트 제공 시점을 결정하거나 정답 단어 조각을 줌인할 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다.
또 다른 일 예로, 인지능력 개발 시스템(2)은 카메라(3)를 통해 사용자 시점(43)뿐만 아니라 사용자 표정 정보를 도출할 수 있다. 일 예로, 사용자가 눈을 찡그리거나 화면에 인접하게 얼굴을 가까이하는 경우, 인지능력 개발 시스템(2)은 사용자에게 제공하는 콘텐츠의 크기를 키울 수 있다. 즉, 사용자가 콘텐츠를 제대로 인식하지 못하는 경우일 수 있으므로 인지능력 개발 시스템(2)은 콘텐츠의 크기를 크게함으로써 사용자가 효율적으로 콘텐츠를 제공받도록 할 수 있고, 인지능력을 효율적으로 측정하여 고도화를 수행할 수 있다.
또한, 일 예로, 도 6a는 일 실시예에 따라 사용자 손을 트래킹하고 디지털 치료제를 고도화하는 방법을 나타낸 도면이다. 일 예로, 상술한 카메라(3)는 사용자의 시점(43)뿐만 아니라 사용자의 손(41)을 트래킹할 수 있다. 여기서, 인지능력 개발 시스템(2)은 트래킹한 사용자 손(41)의 좌표와 제공되는 콘텐츠의 화면상의 좌표가 일치함을 디텍트하면 답변 정보(502)를 업데이트할 수 있다. 구체적으로, 도6b를 참조하면, 인지능력 개발 시스템(2)은 사용자 손(41)을 트래킹하여 특정 콘텐츠(55)의 위치에서 특정 콘텐츠(55)가 선택되는 입력을 디텍트할 수 있다. 일 예로, 인지능력 개발 시스템(2)은 사용자 손(41) 각각의 좌표가 기 설정된 거리 이내로 모이게 됨을 디텍트하면 해당 위치에서 특정 콘텐츠(55)가 선택되는 입력을 디텍트할 수 있다. 즉, 사용자 손(41)이 움켜지는 동작이 디텍트될 수 있으며, 이에 기초하여 특정 콘텐츠(55)가 선택될 수 있다. 그 후, 인지능력 개발 시스템(2)은 카메라(3)에 기초하여 선택된 특정 콘텐츠(55)가 제 1 위치에서 제 2 위치로 이동함을 디텍트할 수 있다. 이때, 제 2 위치에서 제공되는 콘텐츠(61)는 특정 콘텐츠(550)를 답변 정보(502)로 제공하기 위한 입력을 제공하는 위치일 수 있다. 즉, 사용자 손(41)이 특정 콘텐츠(550)를 선택하여 믹서기(61)로 이동시키면 인지능력 개발 시스템(2)은 이를 인지하여 답변 정보(502)로 제공할 수 있다. 즉, 인지능력 개발 시스템(2)은 사용자 손(41)을 인지하고, 인지된 손을 트래킹할 수 있다. 이때, 인지능력 개발 시스템(2)은 사용자 손(41) 동작에 기초하여 사용자 인지 상태를 확인할 수 있다. 일 예로, 인지능력 개발 시스템(2)은 사용자 손(41)이 기 설정된 시간 이내에 빠르게 선택되어 제 1 위치에서 제 2 위치로 이동함을 디텍트하면 사용자 인지 상태가 높은 등급임을 판단할 수 있다. 반면, 인지능력 개발 시스템(2)은 사용자 손(41)의 이동 속도가 느리고, 특정 콘텐츠(55) 선택 동작을 수행하지 못함을 디텍트하면 사용자 인지 상태가 낮은 등급임을 판단할 수 있다. 즉, 인지능력 개발 시스템(2)은 사용자 손(41)을 트래킹하여 사용자의 인지 상태를 판단할 수 있다.
또한, 일 예로, 도 6c를 참조하면, 인지능력 개발 시스템(2)은 사용자 손(41) 트래킹에 기초하여 최종 답변 정보를 도출하는 시간 정보에 기초하여 사용자 인지 상태를 판단할 수 있다. 일 예로, 도 6c에서 질문 정보(501)에 기초한 답변 정보(502)는 "모친"으로 사용자 손(41)이 "ㅗ" , "ㅊ" , "ㅣ" 및 "ㄴ"을 선택하여 상술한 제 2 위치(즉 믹서기, 61)로 이동함을 디텍트할 수 있으며, 해당 답변을 도출하는데까지 필요한 시간 정보를 도출할 수 있다. 일 예로, 인지능력 개발 시스템(2)은 상술한 바와 같이 최종 답변 정보(502)를 도출하는데 시간이 오래 걸리면 사용자 인지 상태 등급이 낮은 것으로 판단할 수 있으며, 최종 답변 정보(502) 도출 시간이 짧으면 사용자 인지 상태 등급이 높은 것으로 판단할 수 있다.
또 다른 일 예로, 인지능력 개발 시스템(2)은 사용자 시점(43) 및 사용자 손(41)을 모두 디텍트할 수 있다. 보다 상세하게는, 도 7a 및 도 7b를 참조하면, 사용자는 제공되는 콘텐츠에서 질문 정보(501)를 확인하여 특정 콘텐츠를 선택하여 이동시킴으로써 답변 정보(502)를 생성할 수 있다. 이때, 사용자의 시점(43)은 질문 정보(501) 및 답변 정보(502)에 기초하여 각각의 콘텐츠로 이동할 수 있으며, 사용자 손(41)은 답변 정보(502)를 위해 각각의 콘텐츠로 이동할 수 있다. 즉, 사용자는 인지능력 개발 시스템(2)으로부터 제공되는 콘텐츠를 눈으로 인식하고, 손으로 선택하여 특정 동작을 수행할 수 있다. 상술한 점을 고려하여, 인지능력 개발 시스템(2)은 사용자 시점(43) 및 사용자 손(41)을 모두 디텍트할 수 있으며, 이를 통해 사용자 인지 상태를 판단할 수 있다. 이때, 일 예로, 인지능력 개발 시스템(2)은 하나의 카메라(3)를 통해 사용자 시점(43) 및 사용자 손(41)을 모두 인식할 수 있다. 또 다른 일 예로, 인지능력 개발 시스템(2)은 복수 개의 카메라(3)를 구비하고, 복수 개의 카메라(3)에 기초하여 사용자 시점(43) 및 사용자 손(41)을 트래킹할 수 있다. 이때, 일 예로, 사용자 시점(43)에 기초하여 트래킹되는 정보 및 사용자 손(41)에 기초하여 트래킹되는 정보에는 각각의 가중치가 부여될 수 있으며, 가중치를 고려한 값들을 반영하여 사용자 인지 상태 등급이 결정될 수 있으며, 이를 통해 인지능력 개발 시스템(2)은 사용자 인지 상태를 확인할 수 있다.
또 다른 일 예로, 도 8a를 참조하면, 인지능력 개발 시스템(2)은 가상 객체(71)를 제공하고, 가상 객체(71)에 기초하여 사용자의 얼굴(42) 및 사용자 신체(44) 중 적어도 어느 하나를 트래킹하여 사용자 인지 상태를 판단할 수 있다. 이때, 일 예로, 인지능력 개발 시스템(2)은 가상 객체(71)에 대한 제어를 통해 사용자가 가상 객체(71)를 쉽게 인식하도록 할 수 있다. 일 예로, 인지능력 개발 시스템(2)은 배경색을 기초로 단어조각을 둘러싸는 색을 조절할 수도 있다. 구체적인 일 예로, 인지능력 개발 시스템(2)은 보라색 커튼이 있는 경우에는 사용자가 쉽게 인식할 수 있도록 가상 객체(71)는 다른 색으로 디스플레이할 수 있다. 또한, 일 예로, 도 8b를 참조하면, 인지능력 개발 시스템(2)은 배경 내 실물 객체를 인식해서(e.g. 창문, 의자, 액자 등) 소정의 실물 객체 상에는 가상 객체(71)가 오버랩되지 않도록 가상객체의 위치를 동적으로 조절할 수 있다. 일 예로, 도 8b에서 가상 객체(71)는 실물 객체에 의해 사용자가 식별하지 못할 수 있으며, 이를 고려하여 사용자 식별이 가능한 영역으로 이동시킬 수 있다. 보다 구체적으로, 인지능력 개발 시스템(2)은 실물 객체의 밝기 및 복잡도(complexity)와 가상 객체(71)의 색상 및 투과도를 고려해서 가상객체의 위치를 선정할 수 있다. 이때, 인지능력 개발 시스템(2)은 카메라를 통해 가상 객체(71)가 디스플레이되는 공간을 감지하고, 공간 상의 실물 객체를 인지하여 밝기 및 복잡도 정보를 도출할 수 있다. 이때, 인지능력 개발 시스템(2)은 가상 객체(71)의 색상 및 투과도 정보를 도출하여 상술한 실물 객체 정보와 비교함으로써 사용자가 쉽게 인식할 수 있는 위치를 결정할 수 있다.
구체적인 일 예로, 밝기는 주변 조도나 창문 등에 의해 빛이 들어오는 정도일 수 있다. 또한, 일 예로, 복잡도는 복잡한 그림이 그려진 벽지나 액자의 그림에 기초하여 인식되는 배경일 수 있다. 일 예로, 가상 객체(71)의 색상과 투과도는 배경과의 보색 또는 유사도가 고려되거나, 투과도가 높으면 투과도를 낮추거나 이동시킬 수 있다. 또 다른 일 예로, 인지능력 개발 시스템(2)은 사용자 위치도 조정할 수 있다. 일 예로, 인지능력 개발 시스템(2)은 가상 객체(71)를 따라하는 사용자의 얼굴(41) 또는 사용자의 신체(44)를 트래킹하여 사용자 인지 상태를 판단할 수 있다. 이때, 사용자 주변에 상술한 실물 객체가 많은 경우처럼 복잡도가 높은 경우나 밝기가 높아 사용자 인식이 쉽지 않은 경우, 인지능력 개발 시스템(2)은 사용자 위치를 조정하는 정보를 디스플레이할 수 있으며, 이에 기초하여 사용자의 위치가 조정된 후 사용자 동작을 인식할 수 있다.
또 다른 일 예로, 도 9a 및 도 9b는 사용자 시점(43) 트래킹에 기초하여 사용자 인지 상태를 판단하는 방법을 나타낸 도면이다. 일 예로, 도 9a 및 도 9b는 복수 개의 콘텐츠(91, 92, 93, 94, 95, 96, 97, 98, 99)를 배치하고, 이에 따라 이동하는 사용자 시점(43)을 트래킹할 수 있다. 이때, 인지능력 개발 시스템(2)은 복수 개의 콘텐츠(91, 92, 93, 94, 95, 96, 97, 98, 99)을 모두 확인하는 동작이 필요함을 사용자에게 전달하고, 사용자는 복수 개의 콘텐츠(91, 92, 93, 94, 95, 96, 97, 98, 99)를 시선을 통해 확인할 수 있다. 이때, 인지능력 개발 시스템(2)은 사용자 시점(43)을 트래킹하여 사용자 시점(43)이 처음 콘텐츠(91)에서 마지막 콘텐츠(99)까지 이동했다가 다시 돌아오는 시간 정보를 획득할 수 있다. 이때, 인지능력 개발 시스템(2)은 시간 정보가 짧으면 사용자 인지 상태의 등급이 높다고 판단하고, 시간 정보가 길면 사용자 인지 상태 등급이 낮다고 판단할 수 있다.
또한, 일 예로, 사용자 인지 상태 등급은 기 설정된 조건에 기초하여 복수 개의 등급으로 설정될 수 있다. 일 예로, 각각의 등급을 분류하는 각각의 조건에는 가중치가 부여될 수 있으며, 가중치 정보에 기초하여 사용자 인지 상태 등급이 결정될 수 있다. 일 예로, 상술한 바에서 사용자 시점(43)에 기초하여 답변 정보(502)가 도출되는 시간 정보에는 제 1 가중치가 부여되고, 사용자 시점(43)에 기초하여 사용자가 질문 정보(501)를 확인하는 횟수에는 제 2 가중치가 부여될 수 있다. 이때, 인지능력 개발 시스템(2)은 각각의 가중치를 고려한 값으로 최종 값을 도출하고, 최종 값이 도출된 영역에 대응되는 사용자 인지 상태 등급을 확인할 수 있다.
또 다른 일 예로, 사용자 손(41)을 추가로 인식하는 경우에 사용자 손(41)에 기초하여 특정 콘텐츠가 선택되어 최종 답변이 도출되는 시간 정보에는 제 3 가중치가 부여되고, 사용자 손(41)의 트래킹에 기초하여 사용자가 특정 콘텐츠 선택을 수행하는 동작에 제 4 가중치를 부여할 수 있다. 이때, 인지능력 개발 시스템(2)은 제 1 가중치, 제 2 가중치, 제 3 가중치 및 제 4 가중치를 모두 반영하여 최종 값을 도출하고, 최종 값이 도출된 영역에 대응되는 사용자 인지 상태 등급을 확인할 수 있다. 즉, 사용자 인지 상태 등급은 인지능력 개발 시스템(2)에 의해 도출되는 최종 값과 비교를 통해 수행될 수 있다. 또한, 일 예로, 인지능력 개발 시스템(2)은 상술한 사용자 인지 상태 등급 정보에 기초하여 학습 데이터를 생성하고, 생성된 학습 데이터에 기초하여 사용자 인지 상태 등급에 맞도록 콘텐츠를 조절할 수 있다. 또한, 생성된 학습 데이터는 피드백되어 인지능력 개발 시스템(2)으로 전달될 수 있으며, 인지능력 개발 시스템(2)은 상술한 정보를 반영하여 사용자 인지 상태 등급에 맞는 콘텐츠를 효율적으로 제공할 수 있다.
도 10은 일 실시예에 따라 흡연 모니터링을 통한 혈관 관리 방법을 나타낸 순서도이다. 설명의 편의를 위해 도 10에 도시된 흡연 모니터링을 통한 혈관 관리 방법은 사용자 장치(1)로부터 위치 정보를 수신하는 인지능력 개발 시스템(2)(또는 인지능력 개발 서버)에 의해 수행될 수 있다. 다만, 반드시 이에 한정되는 것은 아니며 인지능력 개발 시스템이 사용자 장치와 일체로 구현되어 구성될 수 있다.
도 10을 참조하면, 먼저 인지능력 개발 시스템(2)은 사용자의 위치 정보에 기반하여 흡연 확률을 판단하기 위한 기초가 되는 구역별 흡연 가능도 지도를 구축할 수 있다(S31). 흡연 가능도 지도는 사용자의 위치에 따라 흡연으로 판단할 수 있는 가능성을 기초로 복수의 영역으로 구획된 지도를 의미한다. 도 11에 도시된 바와 같이 구역별 흡연 가능도를 판단하기 위해 구획된 지도를 참조하면, 흡연 가능성에 대한 개별 영역은 도로의 위치, 인도를 기준으로 인접하는 건물의 종류(예를 들어, 주차장, 식당, 학교, 카페 등), 구조물의 종류(예를 들어, 도로, 나무, 호수 등), 흡연 부스의 유무 중 하나 이상을 기초로 결정될 수 있다. 도 11을 참조하면, 주변이 식당으로 둘러 쌓은 부분은 모두 하나의 영역으로 보는 식당 영역(A), 자동차대리점 앞 영역(B), 은행 앞 영역(C), 소정 규모 이상의 주택가 및 상가 주변 둘레 영역(D), 특정 용도의 건물과 공원 경계 영역(E), 학교 앞 영역(F), 슈퍼 앞 영역(G) 등으로 구획될 수 있다. 인지능력 개발 시스템(2)은 외부 렌더링 서버(예를 들어, 네이버 지도 서버, 구글 어스 서버 등)에서 제공되는 지형 모델링에 기초하여 흡연 가능도 지도를 구축할 수 있다. 인지능력 개발 시스템(2)은 일 실시예에 따라 사용자의 현재 위치 또는 사용자가 입력하는 위치에 대응하는 지리적 정보를 통해 흡연 가능도 지도를 생성할 수 있다. 다른 실시예에서, 인지능력 개발 시스템(2)은 사용자의 직장, 집 주변 등 사용자 위치 검출 빈도가 빈번한 공간에 대한 흡연 가능도 지도를 미리 생성하여 저장할 수 있다. 인지능력 개발 시스템(2)은 현실 공간에서 구역의 특징 및 주변 지형 지물의 특징을 고려하여 영역을 구획하고 구획별로 흡연 가능도를 부여할 수 있다. 예를 들어, 현실 공간을 기초로 도로는 흡연 가능성 0%, 도로 옆 인도는 흡연 가능성 20%, 학교 근처는 5%, 도로의 폭이 좁거나 1차선인 경우 그 옆 인도는 가능성 50%, 주차장 인근은 60%, 건물과 건물 사이는 80%, 흡연 부스는 99% 등과 같이 구역의 특징 및 주변 지형 지물의 특징을 고려하여 영역을 구획하고 구획별로 흡연 가능도를 부여할 수 있다. 구역별 흡연 가능도 지도는 학습을 통해 머신러닝 기법을 이용하여 구축될 수 있다.
인지능력 개발 시스템(2)은 사용자 장치(1)로부터 사용자의 위치 정보를 수신할 수 있다(S32). 이 때, 사용자 장치(1)는 스마트폰 등 모바일 컴퓨팅 장치이거나 스마트 워치 등의 각종 웨어러블 디바이스일 수 있다. 인지능력 개발 시스템(2)은 사용자 장치(1)로부터 위치 센서(GPS 모듈 등)로부터 측정된 센싱 데이터를 수신할 수 있고, 수신된 위치 센싱 데이터로부터 사용자의 위치 정보를 트래킹하여 사용자의 이동 경로를 추정할 수 있다. 또한, 인지능력 개발 시스템(2)은 사용자 장치(1)로부터 가속도 센서, 굽힘 센서, 자이로 센서, 중력 센서, 속도 센서, 생체 센서 감지 센서 중 하나 이상의 센서로부터 수집된 센싱 데이터를 수집할 수 있으며, 후술하는 사용자의 흡연 여부 및 흡연량을 판단하기 위한 혈압, 심전도 변화 등의 측정 등 사용자의 흡연 상태를 보다 정밀하게 측정하는 데에 이용할 수 있다.
인지능력 개발 시스템(2)은 사용자의 위치 정보에 기초하여 사용자의 흡연 확률을 판단할 수 있다(S33). 인지능력 개발 시스템(2)은 사용자의 위치 정보를 이용해 추정된 사용자의 이동 경로를 이용하여 구역별 흡연 가능도를 기초로 사용자의 위치 및 해당 위치에 대한 체류 시간을 고려하여 흡연하였을 확률을 판단할 수 있다. 예를 들어, 구역별 흡연 가능도 지도에서 도로는 흡연 가능성 0%, 도로 옆 인도는 흡연 가능성 20%, 학교 근처는 5%, 도로의 폭이 좁거나 1차선인 경우 그 옆 인도는 가능성 50%, 주차장 인근은 60%, 건물과 건물 사이는 80%, 흡연 부스는 99% 등과 같이 구역의 특징 및 주변 지형 지물의 특징을 고려하여 구축될 수 있다. 이 경우, 인지능력 개발 시스템(2)은 사용자의 위치가 식당 영역(A)에서 일정 시간 이상(예를 들어, 2분 이상) 체류하는 것으로 추정된 경우, 건물과 건물 사이로 보아 사용자의 흡연 확률을 80%로 판단할 수 있다. 다른 실시예에서, 인지능력 개발 시스템(2)은 사용자의 체류 시간이 특정 위치에서 일정 시간 이상이고, 위치가 자동차대리점 앞 영역(B)인 경우 주차장 인근으로 흡연 확률 60%, 은행 앞 영역(C)인 경우 도로 옆 인도로 흡연 가능성 20%, 주택가 및 상가 주변 둘레 영역(D)인 경우 도로의 폭이 좁거나 1차선인 경우 그 옆 인도로 흡연 확률 50%, 공원 경계 영역(E)은 경우에 따라 주차장 인근인 경우 흡연 확률 60%, 학교 앞 영역(F)인 경우 학교 근처로 흡연 확률 5%, 슈퍼 앞 영역(G)은 도로의 폭이 좁거나 1차선인 경우 그 옆 인도로 흡연 확률 50%와 같이 판단할 수 있다. 특정 위치에 흡연 부스가 설치된 정보가 있다면, 예를 들어, 자동차대리점 앞 영역(B)에 흡연 부스가 있는 경우 해당 위치에서 일정 시간 이상 체류한 것으로 추정되는 경우 흡연 확률은 흡연 부스로 보아 99%로 판단될 수 있다. 구역별 흡연 가능도 지도에서 각 구역별 흡연 가능도는 사용자가 실제 흡연을 했는지 피드백 정보에 따라 업데이트될 수 있다. 일 실시예에서, 인지능력 개발 시스템(2)은 스마트 폰과 같은 모바일 장치인 사용자 장치(1)로부터 통화 중이라는 정보를 수신할 수 있고, 이 경우 인지능력 개발 시스템(2)은 해당 위치에서 흡연 가능도를 낮출 수 있다. 예를 들어, 사용자의 위치가 식당 영역(A)에서 일정 시간 이상(예를 들어, 2분 이상) 체류하는 것으로 추정되더라도, 사용자 장치(1)가 통화중인 정보를 함께 수신하는 경우 흡연 확률을 80%가 아닌 40%로 판단할 수 있다. 만약 사용자의 위치가 흡연 부스로 추정되는 경우에는 사용자 장치(1)가 통화 중이라는 정보가 수신되더라도 흡연 확률을 낮추지 않고 99%로 판단할 수 있다. 즉, 인지능력 개발 시스템(2)은 사용자의 통화 중 정보를 추가로 이용하여 흡연 확률을 낮출지 결정할 수 있다.
인지능력 개발 시스템(2)은 사용자의 흡연 확률을 기초로 미리 설정된 기준값 이상인 경우 흡연으로 판단할 수 있다(S34). 예를 들어, 인지능력 개발 시스템(2)은 사용자의 위치가 식당 영역(A)에서 흡연 확률이 80%로 판단되는 경우, 미리 설정된 기준값이 50%라면 실제 사용자가 흡연한 것으로 판단할 수 있다. 일 실시예에서, 인지능력 개발 시스템(2)은 사용자의 흡연 확률이 기준값(예를 들어, 50%) 이상이고, 심박수 및 협압의 변화가 일정 기준값 이상인 경우에만 흡연한 것으로 판단할 수도 있다. 인지능력 개발 시스템(2)은 사용자가 흡연인 것으로 판단된 경우, 사용자의 혈압 및 심전도의 변화 정도를 기초로 흡입 강도를 추정할 수 있다. 구체적으로, 인지능력 개발 시스템(2)은 사용자의 해당 위치의 체류 시간동안 혈압 및 심전도 변화 그래프를 획득하고 기울기로 구간을 정해 구간별로 흡입 강도를 '상', '중', '하'로 구분할 수 있다. 사용자의 흡입 강도와 체류 시간을 기초로 사용자의 해당 위치에서의 흡연량을 추정할 수 있다. 일 실시예에서, 학습에 따른 머신러닝 기법을 통해 흡연 여부 및 흡연량이 추정될 수 있다. 다른 실시예에서, 흡연 시간, 흡연량(흡연 시간, 담배 개수 등)은 사용자로부터 입력 받을 수 있다.
이 후, 인지능력 개발 시스템(2)은 사용자의 흡연 여부에 대한 사용자의 확인을 피드백 받고 사용자의 흡연 정보를 저장할 수 있다(S35). 인지능력 개발 시스템(2)은 사용자의 흡연 여부를 결정한 후 사용자의 피드백을 통해 흡연 여부 추정의 정확도를 갱신할 수 있다. 사용자의 피드백 수집은 도 12에 도시된 바와 같이 흡연 여부에 대해 메시지를 사용자 장치(1)에 전송하거나 문의 창을 표시하는 등으로 문의 후 입력 모듈(22)을 통해 사용자의 답변을 수집하는 방식으로 수행될 수 있다. 도 12를 참조하면, 인지능력 개발 시스템(2)은 사용자에게 흡연을 하였는지 문의하는 창을 띄우고, 사용자의 답변이 긍정인 경우 흡연량(흡연 시간, 담배 개수 등)을 확인하는 추가 문의 창을 표시할 수 있다. 인지능력 개발 시스템(2)은 사용자의 흡연 여부, 흡연량 등의 흡연 정보와 사용자로부터 피드백 받은 정보를 저장하여 DB에 정보를 업데이트 할 수 있다. 이 때, 인지능력 개발 시스템(2)이 흡연이라고 판단하였으나, 사용자의 피드백이 흡연이 아닌 경우 사용자의 흡연 상태는 비흡연으로 기록하고, 해당 위치의 구역별 흡연 가능도 지도에서 흡연 가능성을 낮출 수 있고, 해당 데이터를 학습데이터로 하여 구역별 흡연 가능도 지도를 업데이트할 수 있다.
인지능력 개발 시스템(2)은 사용자의 흡연 정보를 기초로 혈관 관리 항목에 정보를 추가하고 사용자의 흡연 정보에 따라 디지털 치료제 콘텐츠를 제공할 수 있다(S36). 인지능력 개발 시스템(2)은 사용자의 흡연 여부, 흡연 시간, 흡입 강도 등의 흡연 정보를 혈관 관리 항목에 추가하고, 도 13a에 도시된 바와 같이 화면을 구성하여 표시할 수 있다. 도 13a를 참조하면, 인지능력 개발 시스템(2)은 사용자의 흡연 정보를 누적 관리하여 달력 형태로 흡연 상태를 디스플레이 화면에 표시할 수 있다. 인지능력 개발 시스템(2)은 또한, 도 14a 및 14b에 도시된 바와 같이 사용자의 흡연 정보를 기초로 디지털 치료제 콘텐츠를 제공할 수 있다. 도 14a 및 14b를 참조하면, 인지능력 개발 시스템(2)은 사용자가 흡연을 한 경우 "혈관 교육" 컨텐츠를 제공하고 "혈관 교육" 컨텐츠 중에서도 "흡연 교육"에 중점을 두고 디지털 치료제 콘텐츠로 제공할 수 있다. 경우에 따라, 디지털 치료제 콘텐츠는 사용자의 금연 과제를 설정하고 관련 흡연(금연) 교육, 금연 목표 달성 플랜을 콘텐츠의 내용으로 할 수 있다.
도 11은 일 실시예에 따라 구역별 흡연 가능도를 판단하기 위해 구획된 지도를 나타낸 도면이다. 구역별 흡연 가능도 지도는 사용자의 위치에 따라 흡연으로 판단할 수 있는 가능성을 기초로 복수의 영역으로 구획된 지도를 의미하며, 인지능력 개발 시스템(2)에 의해 미리 생성될 수 있다.
도 11을 참조하면, 구역별 흡연 가능도를 판단하기 위해 구획된 지도를 참조하면, 흡연 가능성에 대한 개별 영역은 인도를 기준으로 인접하는 건물의 종류(예를 들어, 주차장, 식당, 학교, 카페 등), 구조물(예를 들어, 도로, 나무, 호수 등) 등을 기초로 결정될 수 있다. 도 11에 도시된 바와 같이, 주변이 식당으로 둘러 쌓은 부분은 모두 하나의 영역으로 보는 식당 영역(A), 자동차대리점 앞 영역(B), 은행 앞 영역(C), 소정 규모 이상의 주택가 및 상가 주변 둘레 영역(D), 특정 용도의 건물과 공원 경계 영역(E), 학교 앞 영역(F), 슈퍼 앞 영역(G) 등으로 구획될 수 있다. 인지능력 개발 시스템(2)은 외부 렌더링 서버(예를 들어, 네이버 지도 서버, 구글 어스 서버 등)에서 제공되는 지형 모델링에 기초하여 흡연 가능도 지도를 구축할 수 있다. 인지능력 개발 시스템(2)은 일 실시예에 따라 사용자의 현재 위치 또는 사용자가 입력하는 위치에 대응하는 지리적 정보를 통해 흡연 가능도 지도를 생성할 수 있다. 다른 실시예에서, 인지능력 개발 시스템(2)은 사용자의 직장, 집 주변 등 사용자 위치 검출 빈도가 빈번한 공간에 대한 흡연 가능도 지도를 미리 생성하여 저장할 수 있다. 인지능력 개발 시스템(2)은 현실 공간에서 구역의 특징 및 주변 지형 지물의 특징을 고려하여 영역을 구획하고 구획별로 흡연 가능도를 부여할 수 있다.
도 12는 일 실시예에 따라 사용자의 흡연 여부 및 흡연량을 확인하는 방법을 나타낸 도면이다. 인지능력 개발 시스템(2)은 흡연 가능도 지도 및 사용자의 위치 정보를 통해 판단한 사용자의 흡연 여부가 정확한 판단인지 확인하기 위해, 사용자의 흡연 여부에 대해 메시지를 사용자 장치(1)에 전송하거나 문의 창을 표시하는 등으로 확인할 수 있다. 사용자의 답변 피드백은 입력 모듈(22)을 통해 수집될 수 있다.
도 12를 참조하면, 인지능력 개발 시스템(2)은 사용자에게 흡연을 하였는 문의하는 창(121)을 띄우고, 사용자의 답변이 긍정인 경우 흡연량(흡연 시간, 담배 개수 등)을 확인하는 추가 문의 창(122)을 표시할 수 있다. 이 때, 인지능력 개발 시스템(2)이 흡연이라고 판단하였으나, 사용자의 피드백이 흡연이 아닌 경우 사용자의 흡연 상태는 비흡연으로 기록하고, 해당 위치의 구역별 흡연 가능도 지도에서의 흡연 가능성을 낮출 수 있다. 또한, 인지능력 개발 시스템(2)은 해당 데이터를 학습데이터로 하여 구역별 흡연 가능도 지도를 업데이트 할 수 있다.
도 13a는 일 실시예에 따라 사용자의 흡연 관리 상태를 표시하는 방법을 나타낸 도면이다. 도 13a를 참조하면, 인지능력 개발 시스템(2)은 사용자의 흡연 여부, 흡연 시간, 흡입 강도 등의 흡연 정보를 혈관 관리 항목에 추가하고 디스플레이 화면에 표시할 수 있다. 또한, 도 13a에 도시된 바와 같이 인지능력 개발 시스템(2)은 사용자의 흡연 정보를 누적 관리하여 달력 형태로 흡연 상태를 디스플레이 화면에 표시할 수 있다.
도 13b는 일 실시예에 따라 사용자의 혈관 관리를 위한 상태 화면을 제공하는 방법을 나타낸 도면이다. 도 13b를 참조하면, 인지능력 개발 시스템(2)은 추가로 사용자의 혈압 측정 정보를 표시할 수 있고, 사용자의 혈압이 정상인지, 고혈압 또는 저혈압 상태인지 표시할 수 있다. 인지능력 개발 시스템(2)은 사용자의 흡연 전후 혈압 변화를 표시하여 사용자에게 흡연과 혈압과의 관계를 시각적으로 표시하여 효과적으로 흡연에 따른 혈관 건강 관리를 위한 보조 화면을 제공할 수 있다.
도 14a는 일 실시예에 따라 사용자의 혈관 관리를 위한 혈관 교육 메뉴를 제공하는 방법을 나타낸 도면이다. 인지능력 개발 시스템(2)은 사용자의 흡연 정보를 기초로 디지털 치료제 콘텐츠를 제공할 수 있다. 도 14a를 참조하면, 인지능력 개발 시스템(2)은 사용자가 흡연을 한 경우 "혈관 교육" 컨텐츠를 선택할 수 있는 메뉴를 제공할 수 있다.
도 14b는 일 실시예에 따라 사용자의 혈관 관리를 위한 흡연 교육 메뉴를 제공하는 방법을 나타낸 도면이다. 도 14b를 참조하면, 인지능력 개발 시스템(2)은 사용자가 흡연을 한 경우 "혈관 교육" 컨텐츠 중에서도 "흡연 교육"에 중점을 두고 디지털 치료제 콘텐츠로 제공할 수 있다. 구체적으로, 인지능력 개발 시스템(2)은 "혈관 교육" 컨텐츠를 선택하는 경우, "흡연 교육" 컨텐츠를 선택할 수 있는 메뉴를 제공할 수 있다. 경우에 따라, 디지털 치료제 콘텐츠는 사용자의 금연 과제를 제공하고 관련 교육, 금연 목표 달성 플랜을 콘텐츠의 내용으로 할 수 있다.
이상에서 설명한 실시예들은 적어도 부분적으로 컴퓨터 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 실시예들을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다.
이상에서 살펴본 본 명세서는 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 명세서의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 명세서의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해서 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 포함하도록 정해져야 할 것이다.
본 명세서는 사용자의 흡연 여부 및 흡연량을 모니터링하여 이를 고려하여 디지털 치료제 콘텐츠를 제공할 수 있어 산업상 이용 가능하다.

Claims (10)

  1. 인지능력 개발 서버에 의해 수행되는, 흡연 모니터링을 통한 혈관 관리 방법에 있어서,
    사용자의 위치 정보를 수집하는 단계;
    상기 사용자의 위치 정보를 기초로 흡연 여부를 판단하는 단계; 및
    상기 사용자의 흡연 여부에 기초하여 디지털 치료제 콘텐츠를 제공하는 단계를 포함하는, 흡연 모니터링을 통한 혈관 관리 방법.
  2. 제 1 항에 있어서,
    상기 사용자의 위치에 따라 흡연 여부를 판단할 수 있는 가능성을 기초로 복수의 영역으로 구획된 구역별 흡연 가능도 지도를 구축하는 단계를 더 포함하는, 흡연 모니터링을 통한 혈관 관리 방법.
  3. 제 2 항에 있어서,
    상기 구역별 흡연 가능도 지도는, 도로의 위치, 인도를 기준으로 인접하는 건물의 종류, 구조물의 종류, 흡연 부스의 유무 중 하나 이상을 기초로 결정되는, 흡연 모니터링을 통한 혈관 관리 방법.
  4. 제 2 항에 있어서,
    상기 사용자의 위치 정보를 기초로 흡연 여부를 판단하는 단계는,
    상기 구역별 흡연 가능도 지도와, 상기 사용자의 위치 및 상기 사용자의 위치에 대한 체류 시간을 이용하여 상기 사용자의 흡연 확률을 판단하는 단계; 및
    상기 흡연 확률이 미리 설정된 기준값 이상인 경우 상기 사용자의 흡연으로 판단하는 단계를 포함하는, 흡연 모니터링을 통한 혈관 관리 방법.
  5. 제 4 항에 있어서,
    상기 사용자의 흡연 확률을 판단하는 단계는,
    상기 사용자가 통화 중인 정보를 수신하는 경우, 상기 사용자의 위치가 흡연 부스가 아닌 경우 흡연 확률을 낮추고, 상기 사용자의 위치가 흡연 부스인 경우 흡연 확률을 유지하는 단계를 포함하는, 흡연 모니터링을 통한 혈관 관리 방법.
  6. 제 4 항에 있어서,
    상기 사용자에게 흡연 여부를 확인하는 단계; 및
    상기 확인의 결과에 따라 상기 구역별 흡연 가능도 지도를 업데이트 하는 단계를 더 포함하는, 흡연 모니터링을 통한 혈관 관리 방법.
  7. 제 1 항에 있어서,
    상기 사용자의 흡연으로 판단한 경우, 상기 사용자의 혈압 및 심전도의 변화 정도를 기초로 상기 사용자의 흡입 강도를 추정하고, 상기 사용자의 흡입 강도 및 상기 사용자의 체류 시간을 기초로 상기 사용자의 흡연량을 추정하는 단계를 더 포함하는, 흡연 모니터링을 통한 혈관 관리 방법.
  8. 제 1 항에 있어서,
    상기 디지털 치료제 콘텐츠는, 상기 사용자의 금연 과제를 설정하고, 흡연 교육 및 금연 목표 달성 플랜을 콘텐츠 내용으로 하는, 흡연 모니터링을 통한 혈관 관리 방법.
  9. 하드웨어와 결합되어 제 1항 내지 제8항 중 어느 한 항에 따른 흡연 모니터링을 통한 혈관 관리 방법을 실행하도록 컴퓨터로 판독 가능한 매체에 저장된 컴퓨터 프로그램.
  10. 흡연 모니터링을 통한 혈관 관리 방법을 수행하는 인지능력 개발 서버에 있어서,
    상기 인지능력 개발 서버는,
    사용자의 위치 정보를 수집하고, 상기 사용자의 위치 정보를 기초로 흡연 여부를 판단하는 모니터링 모듈;
    상기 사용자의 흡연 여부에 기초하여 디지털 치료제 콘텐츠를 결정하는 분석 모듈;
    상기 결정된 디지털 치료제 콘텐츠를 제공하는 콘텐츠 제공 모듈; 및
    사용자의 피드백을 입력 받는 입력 모듈을 포함하는, 인지능력 개발 서버.
PCT/KR2023/013133 2022-09-27 2023-09-04 흡연 모니터링을 통한 혈관 관리 방법 및 장치 WO2024071711A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0122076 2022-09-27
KR1020220122076A KR20240043247A (ko) 2022-09-27 2022-09-27 흡연 모니터링을 통한 혈관 관리 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2024071711A1 true WO2024071711A1 (ko) 2024-04-04

Family

ID=90478447

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/013133 WO2024071711A1 (ko) 2022-09-27 2023-09-04 흡연 모니터링을 통한 혈관 관리 방법 및 장치

Country Status (2)

Country Link
KR (1) KR20240043247A (ko)
WO (1) WO2024071711A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277365A (ja) * 2005-03-29 2006-10-12 Nec Corp 喫煙管理システム
KR101681834B1 (ko) * 2015-06-12 2016-12-02 오태연 스마트워치를 이용한 흡연 검출 방법
JP2020537245A (ja) * 2017-10-10 2020-12-17 キャロット,インコーポレイテッド 喫煙行動の定量化および予測のためのシステムおよび方法
KR102231364B1 (ko) * 2020-04-21 2021-03-24 주식회사 투비코 흡연 방해 방법
KR102428244B1 (ko) * 2021-02-19 2022-08-04 주식회사 포에이치글로벌 금연관리 애플리케이션

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101295187B1 (ko) 2012-01-20 2013-08-09 (주)가바플러스 치매 예방을 위한 뇌기능 향상 시스템 및 그 운용방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277365A (ja) * 2005-03-29 2006-10-12 Nec Corp 喫煙管理システム
KR101681834B1 (ko) * 2015-06-12 2016-12-02 오태연 스마트워치를 이용한 흡연 검출 방법
JP2020537245A (ja) * 2017-10-10 2020-12-17 キャロット,インコーポレイテッド 喫煙行動の定量化および予測のためのシステムおよび方法
KR102231364B1 (ko) * 2020-04-21 2021-03-24 주식회사 투비코 흡연 방해 방법
KR102428244B1 (ko) * 2021-02-19 2022-08-04 주식회사 포에이치글로벌 금연관리 애플리케이션

Also Published As

Publication number Publication date
KR20240043247A (ko) 2024-04-03

Similar Documents

Publication Publication Date Title
US10172517B2 (en) Image-analysis for assessing heart failure
US10062163B2 (en) Health information service system
Weiss et al. Toward automated, at-home assessment of mobility among patients with Parkinson disease, using a body-worn accelerometer
Flachenecker et al. Objective sensor-based gait measures reflect motor impairment in multiple sclerosis patients: reliability and clinical validation of a wearable sensor device
WO2018008988A1 (en) Automatically determining and responding to user satisfaction
WO2014209004A1 (ko) 라이프 스타일 서비스 디자인 시스템 및 방법
Lemmens et al. Recognizing complex upper extremity activities using body worn sensors
JP2019500176A (ja) 生理学的モニタのためのシステム、方法、及びコンピュータプログラム製品
WO2015199258A1 (ko) 진단모델 생성 시스템 및 방법
Ruminski et al. The data exchange between smart glasses and healthcare information systems using the HL7 FHIR standard
CN110060753B (zh) 认知障碍患者干预效果评价系统及方法
JP2016189059A (ja) 介入情報提供装置、介入情報提供方法、プログラム、及び介入情報提供システム
CN115376695A (zh) 基于扩展现实的神经心理评估及干预的方法、系统和装置
WO2023285898A1 (en) Screening of individuals for a respiratory disease using artificial intelligence
Kye et al. Multimodal data collection framework for mental stress monitoring
Baldwin et al. Physical activity of ICU survivors during acute admission: agreement of the activPAL with observation
Dael et al. Measuring body movement: Current and future directions in proxemics and kinesics.
WO2017146512A1 (en) Apparatus and method for detection of chronotropic incompetence
WO2014209006A1 (ko) 개인화된 라이프 스타일 모델링 장치 및 방법
US20210228130A1 (en) Method, device and system for assessing an autism spectrum disorder
Golden et al. Should consistent command-following be added to the criteria for emergence from the minimally conscious state?
WO2024071711A1 (ko) 흡연 모니터링을 통한 혈관 관리 방법 및 장치
CN111341444A (zh) 智能绘画评分方法及系统
CN114240934B (zh) 一种基于肢端肥大症的图像数据分析方法及系统
Martinez et al. A predictive model for automatic detection of social isolation in older adults