WO2023229191A1 - 비대면 질환 진단 방법 및 장치 - Google Patents

비대면 질환 진단 방법 및 장치 Download PDF

Info

Publication number
WO2023229191A1
WO2023229191A1 PCT/KR2023/004072 KR2023004072W WO2023229191A1 WO 2023229191 A1 WO2023229191 A1 WO 2023229191A1 KR 2023004072 W KR2023004072 W KR 2023004072W WO 2023229191 A1 WO2023229191 A1 WO 2023229191A1
Authority
WO
WIPO (PCT)
Prior art keywords
disease
face
user
pain
information
Prior art date
Application number
PCT/KR2023/004072
Other languages
English (en)
French (fr)
Inventor
김승수
김영은
김휘선
Original Assignee
후다닥 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후다닥 주식회사 filed Critical 후다닥 주식회사
Publication of WO2023229191A1 publication Critical patent/WO2023229191A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1124Determining motor skills
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Definitions

  • the present invention relates to a method and device for providing disease diagnosis information by diagnosing a user's symptoms non-face-to-face. More specifically, the present invention relates to a method and device for providing disease diagnosis information by diagnosing a user's symptoms in a non-face-to-face manner. More specifically, symptom information before the user performs a specific action and symptom information after the user performs the specific action are sequentially provided. It concerns technology that analyzes and provides meaningful disease diagnosis information to users.
  • non-face-to-face medical provider matching services that match patients and medical professionals through the Internet so that symptom information, treatment information, and prescription information can be shared between patients and medical professionals (e.g., doctors, pharmacists) are being proposed one after another. It's coming.
  • non-face-to-face self-diagnosis service applies unique processing logic (e.g. artificial intelligence, big data, natural language processing, etc.) to the patient's symptom information entered into the user terminal to search or estimate disease information that matches the symptom information and diagnose the patient's symptoms.
  • unique processing logic e.g. artificial intelligence, big data, natural language processing, etc.
  • the basic principle is to guide people.
  • the present invention was created to solve the above problems.
  • the user is asked to perform a specific action, and then the user is requested to perform a specific action.
  • the purpose of the present invention is to provide a method and device for improving the quality and accuracy of disease diagnosis information provided to users by filtering at least one of a plurality of suspected diseases based on additional symptom information and determining at least one representative disease.
  • a non-face-to-face disease diagnosis method includes setting at least one of a plurality of candidate diseases as a suspected disease based on the user's first symptom information, and when a plurality of candidate diseases are set, the plurality of candidate diseases. Determining a predetermined pain addition or reduction action by changing the pain caused by at least two of the suspected diseases to different levels, transmitting an action request message requesting implementation of the pain addition or reduction action to at least one user device.
  • the first symptom information may include a plurality of questionnaire contents input in one-to-one correspondence with the plurality of questionnaire items of the first questionnaire provided to the at least one user device.
  • Setting at least one of the plurality of candidate diseases as a suspected disease may include determining a degree of relevance of each of the plurality of candidate diseases with respect to the first symptom information, and determining a degree of relationship between each of the plurality of candidate diseases with respect to the first symptom information, and determining the degree of relationship between the plurality of candidate diseases and the first symptom information as a reference value. It may include the step of setting a predetermined number of candidate diseases in order of higher correlation with the candidate disease or the first symptom information as the suspected disease.
  • the step of determining the degree of relevance of each of the plurality of candidate diseases to the first symptom information includes, for each of the plurality of candidate diseases, each pair of the candidate disease and the plurality of questionnaire contents from a predefined score table. It may include a step of checking pre-assigned scores, and a step of determining the degree of relevance of the candidate disease equal to the sum of a plurality of scores retrieved from the score table so as to correspond one-to-one to the contents of the plurality of questionnaires.
  • the action request message may include at least one of an image, a video, a phrase, and a voice explaining the pain reduction action.
  • the second symptom information may indicate a change in at least one of the user's pain intensity and pain range before and after performing the pain increase/decrease action.
  • Setting at least one of the plurality of suspected diseases as the user's representative disease includes determining a degree of relevance of each of the plurality of suspected diseases to the second symptom information, and among the plurality of suspected diseases, It may include setting the suspected disease with the highest degree of correlation with the second symptom information as the representative disease.
  • the non-face-to-face disease diagnosis method may further include receiving additional information including at least one of the user's physical activity information and external environment information from the at least one user device.
  • the physical activity information may include a time series of at least one of the user's body temperature, blood pressure, heart rate, electrocardiogram, amount of exercise, and movement speed.
  • the external environment information may include a time series of at least one of temperature, humidity, atmospheric pressure, and wind speed at the user's location.
  • the non-face-to-face disease diagnosis method may further include calculating a body stabilization time based on the additional information.
  • the action request message may be a message requesting implementation of the pain action to increase or decrease the pain after the body stabilization time has elapsed.
  • the disease diagnosis information may indicate at least one of a medical institution capable of treating the representative disease, recommended actions to alleviate the representative disease, and risky behaviors that worsen the representative disease.
  • a computer program according to another aspect of the present invention executes the non-face-to-face disease diagnosis method.
  • a non-face-to-face disease diagnosis device includes a communication unit that receives first symptom information of a user; And based on the first symptom information, at least one of a plurality of predefined candidate diseases is set as a suspected disease, and when a plurality of suspected diseases are set, pain caused by at least two of the plurality of suspected diseases It includes a control unit that determines predetermined pain increase/decrease actions by varying them at different levels.
  • the control unit controls the communication unit to transmit an action request message requesting performance of the pain addition/reduction action to at least one user device, and based on the second symptom information of the user after performing the pain increase/reduction action, the One of a plurality of suspected diseases is set as the user's representative disease, and the communication unit is controlled to transmit disease diagnosis information related to the representative disease to the at least one user device.
  • the user when there are a plurality of suspected diseases related to the user's symptom information at a specific point in time, the user is asked to perform a specific action (pain increase/reduce action), and then the specific action is performed. Based on the additional symptom information, at least one of the plurality of suspected diseases can be filtered to determine a representative disease.
  • a specific action pain increase/reduce action
  • a suspected disease group containing only a portion of all diseases is initially selected using symptom information before performing a specific action, and then a group of suspected diseases is selected using symptom information after performing a specific action.
  • the embodiments of the present invention when multiple suspected diseases are selected, at least two of them have different degrees of relationship (e.g., level of change in pain intensity, level of change in pain expression range).
  • a predetermined action can be determined as a specific action. Accordingly, when selecting a representative disease group from a suspected disease group, the effectiveness of additional symptom information after performing a specific action can be secured.
  • FIG. 1 is a diagram illustrating the configuration of a disease diagnosis service providing system according to an embodiment of the present invention.
  • Figure 2 is a flowchart illustrating a method of providing a non-face-to-face disease diagnosis service according to another embodiment of the present invention.
  • FIGS. 3A and 3B are diagrams referenced for exemplarily explaining the input situation of questionnaire answers to the first questionnaire.
  • FIG. 4 is a flowchart illustrating a detailed routine of the suspicious disease setting process performed in step S220 of FIG. 2 .
  • FIG. 5 illustrates a first score table referred to in explaining FIG. 4 .
  • FIGS. 6A to 6C are diagrams referenced for explaining exemplary screen information displayed upon receiving an action request message from at least one user device.
  • Figure 7 is a diagram referenced to exemplarily explain the input situation of questionnaire answers to the second questionnaire.
  • FIG. 8 is a flowchart exemplarily showing a detailed routine of the representative disease setting process performed in step S250 of FIG. 2.
  • FIG. 9 illustrates a second score table referred to in explaining FIG. 8.
  • Figure 1 is a diagram illustrating the configuration of a disease diagnosis service providing system 10 according to an embodiment of the present invention.
  • the disease diagnosis service providing system 10 includes at least one user device 100a and 100b and a non-face-to-face disease diagnosis device 200 (hereinafter referred to as a “disease diagnosis device”).
  • a disease diagnosis device hereinafter referred to as a “disease diagnosis device”.
  • user device 100a and user device 100b are presented as at least one user device 100a and 100b.
  • Each of the user device 100a and the user device 100b is a terminal owned by a user as a patient (medical consumer) suffering from symptoms caused by a certain disease.
  • the user device 100a is connected to the disease diagnosis apparatus 200 through a first communication channel such as the Internet, and can mutually transmit and receive various information required for a disease diagnosis process based on the user's diagnosis information, which will be described later.
  • the user device 100b is also connected to the disease diagnosis apparatus 200 through a first communication channel, and can mutually transmit and receive various information required for the disease diagnosis process.
  • the user device 100a and the user device 100b are connected to each other through a second communication channel such as Bluetooth, and can mutually transmit and receive various information required for the disease diagnosis process.
  • a second communication channel such as Bluetooth
  • the user device 100a and the user device 100b include data transmission and reception functions (e.g., antenna, network interface), information input functions (e.g., touch panel, microphone, camera), information output functions (e.g., display, speaker), It may be implemented as one or a combination of two or more of known computing devices having an information processing function (eg, CPU) and an information storage function (eg, SD card).
  • the user device 100a is a non-wearable mobile device such as a personal computer, smart phone, tablet PC, etc.
  • the user device 100b is a mobile device that is wearable on a part of the user's body, such as a smart watch. It can be.
  • the user device 100b includes one or more of known sensors capable of measuring the user's biosignals, such as body temperature, blood pressure, heart rate, electrocardiogram, and amount of exercise, while worn on a part of the user's body. can do. At least one of the user device 100a and 100b may sense location information using GPS.
  • the disease diagnosis apparatus 200 is connected to the user device 100a through a wired or wireless network and can mutually transmit and receive various information required for the disease diagnosis process.
  • the disease diagnosis apparatus 200 like the user device 100a, can be connected to the user device 100b through a wired or wireless network.
  • the disease diagnosis apparatus 200 may communicate with the user device 100b through the user device 100a instead of being directly connected to the user device 100b.
  • user biometric information e.g., time series for each biosignal
  • the user device 100a transmits the user biometric information to the disease diagnosis device 200.
  • Information can be transmitted.
  • the disease diagnosis apparatus 200 transmits to the user device 100a any information for which the user device 100b is set as the recipient, and then the user device 100a refers to the recipient of the information received from the disease diagnosis machine. The information may be transmitted to the user device 100b. Accordingly, even when either the user device 100a or the user device 100b is not connected to the first communication channel, the disease diagnosis apparatus 200 is diagnosed by the other one of the user device 100a or the user device 100b. Communication with can continue.
  • the disease diagnosis device 200 may include a communication unit 210 and a control unit 230.
  • the communication unit 210 includes a communication circuit that connects and communicates with at least one of the user device 100a and the user device 100b through a first communication channel.
  • the communication unit 210 receives a diagnosis request, symptom information, device location information, etc. from the user device 100a, and transmits a questionnaire, action request message, disease diagnosis information, etc. to the user device 100a.
  • the communication unit 210 receives device location information, biometric information, external environment information, etc. from the user device 100b and transmits disease diagnosis information, etc. to the user device 100b.
  • the external environment information is collected from the Korea Meteorological Administration server, etc. based on device location information from at least one of the user device 100a and the user device 100b. It could be.
  • the storage unit 220 records data, information, and programs that are used by the control unit 230, described later, to perform a non-face-to-face disease diagnosis process. At least one of the programs recorded in the storage unit 220 may be implemented as a set of instructions executable by the control unit 230.
  • the storage unit 220 is hardware-wise: flash memory type, hard disk type, SSD type (Solid State Disk type), SDD type (Silicon Disk Drive type), and multimedia card micro type. (multimedia card micro type), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), programmable read-only memory (EEPROM), It may include at least one type of storage medium (only memory).
  • the storage unit 220 may be provided with a computer-readable recording medium that executes the method of providing non-face-to-face disease diagnosis services according to FIGS. 2, 4, and 8.
  • the storage unit 220 stores a plurality of disease lists corresponding one-to-one to a plurality of body parts. That is, each disease list is mapped to a specific body part and includes two or more candidate diseases.
  • the storage unit 220 stores a first action list including a plurality of pain reduction actions.
  • Each pain alleviation action is predefined as temporarily (non-permanently) enhancing or alleviating the level of pain caused by at least one of a plurality of candidate diseases.
  • the first pain-modifying action intensifies (hardens) the pain caused by the first candidate disease by the first level compared to the reference action (e.g., standing with the back straight).
  • the reference action e.g., standing with the back straight
  • the second and third candidate diseases may be relieved to the second level, respectively.
  • the second pain reduction behavior e.g., bending the waist about 45 degrees with the legs straight
  • the 3rd pain reduction behavior relieves pain due to candidate diseases 5 and 6 by a 5th level compared to the baseline behavior, whereas pain due to candidate diseases 1 and 7 relieves pain by a level of 5% compared to the baseline behavior.
  • This may be a mitigating action of level 6.
  • the 4th pain modulation behavior e.g., slowly turning the head to the left and right
  • At least one of the plurality of pain addition and reduction actions may be predetermined to change pain caused by at least two of the plurality of candidate diseases to different levels.
  • the storage unit 220 may store a second action list including a plurality of recommended actions. Each recommended action is predetermined to alleviate at least one of a plurality of candidate diseases.
  • the storage unit 220 may store a third action list including a plurality of risky actions. Each risk behavior is predetermined to worsen at least one of a plurality of candidate diseases.
  • the storage unit 220 may store a medical institution list including a plurality of medical institutions. Each medical institution in the medical institution list is mapped to at least one candidate disease.
  • the control unit 230 is operably coupled to the communication unit 210 and the storage unit 220, and is a subject that manages the overall operations of the disease diagnosis device 200, and is hardware-based using ASICs (application specific integrated circuits) and DSPs. (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), microprocessors, and other electrical units to perform functions. You can.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • microprocessors and other electrical units to perform functions. You can.
  • Figure 2 is a flowchart illustrating a method of providing a non-face-to-face disease diagnosis service according to another embodiment of the present invention.
  • 'at least one user device 100a, 100b' refers to at least one of the user device 100a and the user device 100b.
  • the description of the transmission operation for 'at least one user device 100a and 100b' means the transmission operation for at least one of the user device 100a and the user device 100b.
  • the description of a transmission operation by 'at least one user device 100a and 100b' means a transmission operation by at least one of the user device 100a and the user device 100b.
  • At least one user device 100a or 100b transmits a diagnosis request signal to the disease diagnosis apparatus 200.
  • at least one user device (100a, 100b) sends a diagnosis request signal to the disease diagnosis device 200 according to a user's touch event on the disease diagnosis request button displayed on the screen when running the disease diagnosis application installed on the user device. Can be transmitted.
  • the disease diagnosis apparatus 200 requests first symptom information from at least one user device 100a or 100b in response to the diagnosis request signal.
  • the disease diagnosis apparatus 200 guides the user to input first symptom information describing the subjective symptom in the state in which the reference action was taken. You can send a message together.
  • the reference behavior may be a specific fixed posture or a movement consisting of a series of ordered postures, and may be predetermined for each body part. For example, the reference action for the waist may be different from the reference action for the feet.
  • the disease diagnosis apparatus 200 may transmit a first questionnaire including a plurality of questionnaire items related to the pain area to at least one user device 100a or 100b.
  • the first questionnaire may be displayed on the screen of at least one user device (100a, 100b) in the form of a UI.
  • At least one user device (100a, 100b) generates first symptom information.
  • at least one user device (100a, 100b) activates functions such as touch, click, virtual keyboard, and voice recording to provide a plurality of questionnaire answers corresponding one-to-one to the plurality of questionnaire items of the first questionnaire 300.
  • First symptom information may be generated by receiving input from the user.
  • FIG. 3A is a diagram referenced to exemplarily explain an input situation of questionnaire answers to the first questionnaire 300.
  • the first questionnaire 300 shown in FIG. 3A assumes that the user's pain area is the lower back.
  • the first questionnaire 300 presents five questionnaire items whose presence or absence can be entered as questionnaire answers through a selection event (e.g., touch) for the check box matched to each.
  • a unique item code may be pre-assigned to each questionnaire item, and the questionnaire answer entered for each questionnaire item may be mapped to the item code of the corresponding questionnaire item and provided to the disease diagnosis device 200.
  • the item code (e.g., WO1, WO3, WO4) of questionnaire items 1, 3, and 4 is a value indicating that the user has symptoms according to the corresponding questionnaire item (e.g., 1 ), while the item codes of questionnaire items 2 and 5 (e.g., WO1, WO3, WO4) are mapped to a value (e.g., 0) indicating that the user has no symptoms according to the corresponding questionnaire item.
  • questionnaire answers corresponding to at least one questionnaire item may be provided in a multiple choice format, free entry format, voice recording format, etc.
  • Questionnaire answers entered in free form can be converted into standardized numbers or terms through natural language processing, etc.
  • questionnaire answers entered as voice recordings can be converted into standardized numbers or terms through STT (Speech To Text), etc. can be converted to
  • a guide image to improve user convenience may be displayed on the screen of the user devices 100a and 100b when first symptom information is input through the first questionnaire 300. For example, when the display area of medical examination item No. 4 is selected (e.g., touched), a guide image in which characters 310 and 320 mapped to medical examination item No. 4 appear is displayed on the user device 100a, as shown in FIG. 3B. , 100b) can be displayed on the screen.
  • Questionnaire item number 4 is “When both arms are raised, the height of both hands are different,” so the characters (310, 320) in the guide video also express the appearance when both arms are raised above the head, and at this time, the height of both hands is The same character 310 and the character 320 whose hands have different heights may be displayed at the same time or may be displayed alternately with a time difference. The user can receive help in appropriately entering the first symptom information by referring to the appearances of the characters 310 and 320 displayed on the screen.
  • questionnaire item No. 4 is used as an example, but it goes without saying that a guide image in which a corresponding character appears can be mapped to other questionnaire items and displayed on the screen depending on whether the user selects it or not.
  • step S216 at least one user device 100a or 100b transmits first symptom information to the disease diagnosis apparatus 200.
  • step S220 the disease diagnosis apparatus 200 sets at least one of the plurality of candidate diseases as a suspected disease based on the first symptom information.
  • the plurality of candidate diseases in step S210 may be a portion mapped to the user's pain area in step S210 among all diseases predefined as diagnosable by the disease diagnosis device 200. For example, if the user's pain area is designated as the lower back, a suspected disease may be set among candidate diseases related to the lower back, such as lumbar disc disease, spinal stenosis, spondylolisthesis, scoliosis, and intervertebral disc herniation.
  • candidate diseases related to the lower back such as lumbar disc disease, spinal stenosis, spondylolisthesis, scoliosis, and intervertebral disc herniation.
  • step S222 the disease diagnosis device 200 determines whether a plurality of suspected diseases have been set. If the value of step S222 is “Yes,” the process proceeds to step S230. The value of step S222 being “No” indicates that only a single candidate disease is set as a suspected disease, and the suspected disease can be treated as a representative disease and proceed to step S260.
  • the disease diagnosis device 200 refers to the first action list recorded in the storage unit 220, and refers to pain (intensity of pain, body range where pain is felt) caused by at least two of the plurality of suspected diseases. etc.) to different levels to determine a predetermined pain increase/decrease action.
  • step S234 the disease diagnosis apparatus 200 transmits, to at least one user device (100a, 100b), an action request message requesting implementation of a pain reduction action.
  • FIG. 6A is a diagram referenced to explain exemplary screen information displayed upon receiving an action request message from at least one user device 100a or 100b.
  • the action request message includes at least one of an image or video (including graphic objects such as characters), text, and voice explaining the pain reduction action determined in step S230.
  • the action request message may be displayed in the form of a push message on the screen of at least one user device (100a, 100b).
  • the action request message may include a guidance video indicating precautions for the user when performing pain increasing or decreasing actions.
  • a guidance video indicating precautions for the user when performing pain increasing or decreasing actions.
  • a guidance image in which (610, 620) appears may be displayed on the screen of the user device (100a, 100b) as shown in FIG. 6B.
  • the action request message requesting the implementation of pain reducing action is shown in FIG. 6C and It can also be displayed in the same form. Referring to FIG.
  • the user may be prompted to select (e.g., touch, click) the area of pain he or she feels through a character displayed on the screen before and after watching an image or video explaining pain increasing or decreasing behavior, and the user If a specific pain area is selected, the 'next step' pain increase/decrease actions may be guided. In this way, the pain adding/decreasing action can be performed multiple times, and the user can provide the disease diagnosis device 200 with data for identifying symptoms by simply selecting the pain felt after performing the pain adding/decreasing action several times. You can.
  • the user can upload the result of 3D imaging (3D image) in advance to the disease diagnosis device 200.
  • the 3D image is captured and shared at a hospital or other institution with the user's consent. It may have happened. Individual users may be able to input more accurately based on their body parts through their own 3D image.
  • the user may use the user devices 100a and 100b to photograph actions performed in accordance with the content guided through the above-mentioned characters or body parts related to the user's symptoms.
  • the user may place the user devices 100a and 100b on a holder or entrust the user devices 100a and 100b to a person nearby, and film the process of following the process of performing an action to increase or decrease pain.
  • the disease diagnosis application running on the user devices (100a, 100b) automatically controls the recording means provided in the user devices (100a, 100b) and records the image automatically or according to a user command when the pain addition/reduction action begins. You can proceed with recording.
  • the user devices 100a and 100b may detect a human object corresponding to the user from an image captured while the user is performing a pain adding/decreasing action, and compare the movement of the detected human object with the pain adding/decreasing action.
  • the user devices 100a and 100b may calculate the similarity between the object movement and the pain adding/decreasing action, and then, if the similarity is greater than or equal to a threshold, may notify the disease diagnosis apparatus 200 that the user has correctly performed the pain adding/decreasing action.
  • the disease diagnosis apparatus 200 may proceed with step S240, described later, on the condition that the user receives notification from the user devices 100a and 100b that the user has accurately performed the pain increasing/decreasing action.
  • the user devices 100a and 100b may output a message requesting re-implementation of the pain adding/reducing action to the user.
  • the disease diagnosis apparatus 200 requests second symptom information from at least one user device 100a or 100b.
  • the second symptom information describes a change in at least one of the user's pain intensity and pain range before and after performing the pain increasing or decreasing action.
  • the disease diagnosis apparatus 200 After transmitting the action request message, the disease diagnosis apparatus 200 provides a second questionnaire 700 including at least one questionnaire item for identifying the user's pain addition/reduction information according to the performance of the pain addition/reduction action to at least one user. It can be transmitted to devices 100a and 100b.
  • step S242 at least one user device (100a, 100b) generates second symptom information.
  • at least one user device (100a, 100b) may receive questionnaire answers for each questionnaire item of the second questionnaire 700 from the user and generate second symptom information.
  • FIG. 7 is a diagram referenced to exemplarily explain an input situation of questionnaire answers to the second questionnaire 700.
  • the second questionnaire 700 is stored in the storage unit 220 in relation to pain increase/decrease behavior, and indicates the pain resulting from the execution of the pain increase/decrease behavior. It presents 10 questionnaire items that can be entered as questionnaire answers about changes in intensity or pain range.
  • Questionnaire items 1, 3, 5, 7, and 9 are exclusive to questionnaire items 2, 4, 6, 8, and 10, in that order, and can be applied to either of the two exclusive questionnaire items. Once a numerical value is entered for one, numerical input for the other may be disabled.
  • Figure 7 illustrates that the intensity of back pain and the body range indicated by back pain are significantly improved by pain reduction actions.
  • step S244 at least one user device 100a or 100b transmits second symptom information to the disease diagnosis apparatus 200.
  • the user devices 100a and 100b may transmit images captured as described above to the disease diagnosis apparatus 200.
  • the disease diagnosis device 200 provides images received from the user devices 100a and 100b to the medical institution when the user undergoes face-to-face or non-face-to-face treatment through a medical institution in the future, thereby supporting more accurate diagnosis of the user. You can.
  • step S250 the disease diagnosis device 200 sets one of the plurality of suspected diseases as the user's representative disease based on the second symptom information.
  • the detailed routine of step S250 will be described later with reference to FIGS. 8 and 9.
  • the disease diagnosis apparatus 200 transmits disease diagnosis information related to a representative disease to at least one user device (100a, 100b).
  • the disease diagnosis information indicates at least one of a medical institution that can treat the representative disease, recommended actions to alleviate the representative disease, and risky behaviors that worsen the representative disease.
  • the method according to FIG. 2 may further include step S218 and step S232.
  • At least one user device 100a or 100b transmits additional information including at least one of the user's physical activity information and external environment information to the disease diagnosis apparatus 200.
  • the physical activity information includes a time series of at least one of the user's body temperature, blood pressure, heart rate, electrocardiogram, amount of exercise, and movement speed.
  • the external environment information includes a time series of at least one item of temperature, humidity, atmospheric pressure, and wind speed at the user's location (location of the user device).
  • the time series for each item represents the change in the value of the item over the period of interest.
  • the period of interest may be, for example, a period of a predetermined length of time with the transmission time of the diagnosis request signal or first symptom information as the end time.
  • the time series of some items of external environmental information is collected by the disease diagnosis device 200 from the Korea Meteorological Administration server based on the user's location. Alternatively, it may be obtained by executing a weather information application installed on at least one user device (100a, 100b). Alternatively, instead of step S218 being performed separately from step S216, additional information may be transmitted along with the transmission of the first symptom information in step S216. Alternatively, the disease diagnosis apparatus 200 may collect additional information from at least one user device 100a or 100b when the value of step S222 is “Yes.”
  • some items of external environmental information e.g., atmospheric pressure, wind speed
  • the disease diagnosis device 200 calculates the body stabilization time based on the additional information.
  • the body stabilization time is an estimate of the time required for the user's physical stress, which is aggravated by the user's physical activity and surrounding environment, to be relieved. For example, even if it is the same disease, the symptoms felt by the user under harsh conditions (immediately after performing high-intensity exercise for a long period of time outside in sub-zero temperatures) will be significantly different from the symptoms felt under optimal conditions (when standing comfortably at room temperature). .
  • the storage unit 220 may store a relationship function between a representative value for each item of additional information and a stabilization time required for each item.
  • the representative value of any item may be the maximum, minimum, average, median, or integral value of the time series of the item.
  • the disease diagnosis apparatus 200 may calculate a representative value for each item of additional information and then obtain a stabilization time corresponding to the representative value for each item from a relationship function.
  • the disease diagnosis device 200 may calculate the body stabilization time equal to the sum of the stabilization time required for each item. If the additional information includes only a single item, the body stabilization time is equal to the stabilization time required for that item. If the time series of some items of additional information have not been acquired, the disease diagnosis device 200 may set the stabilization time corresponding to each item not acquired to be equal to a predetermined reference time.
  • the action request message may be a message requesting the implementation of a pain increase or decrease action after the time required for stabilization has elapsed.
  • a notification message requesting the user to perform an action to increase or decrease pain is sent from at least one user device (100a, 100b) can be printed.
  • FIG. 4 is a flowchart exemplarily showing a detailed routine of the suspicious disease setting process performed in step S220 of FIG. 2
  • FIG. 5 illustrates the first score table 500 referred to in explaining FIG. 4 .
  • the method of FIG. 4 can be performed once for each of a plurality of candidate diseases.
  • step S410 the disease diagnosis apparatus 200 searches the predefined first score table 500 for scores pre-assigned to each pair of a candidate disease and a plurality of questionnaire answers.
  • the first score table 500 defines pre-assigned scores for a plurality of questionnaire answers and a plurality of candidate diseases. For example, when 5 questionnaire answers are entered as shown in FIG. 3A, 5 scores for candidate disease 1, 1 point, 1 point, 3 points, 2 points, and 5 points, are retrieved from the first score table 500, Five scores, 5 points, 8 points, 3 points, 4 points, and 1 points, for candidate disease 2 are retrieved from the first score table 500, and five scores, 3 points, 4 points, and 1 point, for candidate disease 3. , 5 points and 2 points are retrieved from the first score table 500. In FIG. 5 , all scores of the first score table 500 are illustrated as 0 or positive numbers, but at least one score may be negative.
  • the disease diagnosis apparatus 200 determines the degree of relevance of the candidate disease equal to the sum of the plurality of scores retrieved from the first score table 500 to correspond one-to-one to the plurality of questionnaire answers.
  • 12 points the total sum of the 5 scores queried for candidate disease 1
  • 21 points the total sum of the 5 scores queried for candidate disease 2
  • the relevance of candidate disease 2 is determined by the relevance of candidate disease 2 to the first symptom information
  • the total sum of 5 scores searched for candidate disease 3 15 points, is determined by the relevance of candidate disease 3 to the first symptom information. That is, candidate disease 2 can be said to have the highest correlation with the first symptom information, and candidate disease 1 can be said to have the lowest correlation with the first symptom information.
  • step S430 the disease diagnosis device 200 determines whether the degree of relevance of the candidate disease is greater than or equal to the reference value.
  • the reference value is a predetermined value and may be, for example, 15. According to the above-described example, the value of step S430 is output as “Yes” for candidate disease 2 and candidate disease 3, while the value of step S430 is output as “No” for candidate disease 1. If the value of step S430 is “Yes,” the process proceeds to step S440.
  • step S440 the disease diagnosis device 200 sets the candidate disease as a suspected disease.
  • steps S410 and S420 are performed for each of the plurality of candidate diseases to determine the plurality of relatedness determined one-to-one for the plurality of candidate diseases, and then determine the plurality of relatedness in order of highest relatedness. It is also acceptable to set a number (e.g., 2) of candidate diseases as suspected diseases.
  • FIG. 8 is a flowchart exemplarily showing a detailed routine of the representative disease setting process performed in step S250 of FIG. 2
  • FIG. 9 illustrates a second score table 900 referred to in explaining FIG. 8 .
  • the method of FIG. 8 can be performed once for each of multiple suspected diseases. It is assumed that candidate disease 2 and candidate disease 3 are set as suspected disease 1 and suspected disease 2, respectively, through the process described above with reference to FIG. 4 .
  • step S810 the disease diagnosis apparatus 200 searches the predefined second score table 900 for scores pre-assigned to each pair of each suspected disease and a plurality of questionnaire answers.
  • the second score table 900 shown in FIG. 9 corresponds to the second questionnaire 700 according to FIG. 7 . Since the even-numbered questionnaire items in the second questionnaire 700 are in a deactivated state, the second score table 900 illustrates the scores assigned to each of the odd-numbered questionnaire answers and suspected disease 1 and suspected disease 2. As an example, as shown in FIG. 7, when questionnaire answers to five odd-numbered questionnaire items are entered, the five scores for suspected disease 1, 2 points, 1 point, 4 points, 1 point, and 0 points, are assigned to the second score table ( 900), and five scores for suspected disease 2, 8 points, 7 points, 4 points, 1 point, and 2 points, are searched from the second score table 900.
  • step S820 the disease diagnosis apparatus 200 determines the degree of relevance of the suspected disease equal to the sum of the plurality of scores retrieved from the second score table 900 to correspond one-to-one to the plurality of questionnaire answers. For example, the total sum of 5 scores for suspected disease 1, 8 points, is determined as the degree of relevance of suspected disease 1 to the second symptom information, and the total sum of 5 scores queried for suspected disease 2, 22 points, is determined as It is determined by the degree of relevance of suspected disease 2 to the second symptom information.
  • step S830 the disease diagnosis apparatus 200 sets a suspected disease with the highest degree of relevance to the second symptom information as a representative disease among the plurality of suspected diseases.
  • the disease diagnosis device 200 re-performs step S230 to determine a new pain addition or reduction action, and then determines a new pain addition or reduction action.
  • Steps S234 to S250 can be performed for pain reduction actions.
  • configurations that implement the technical features of the present invention included in the block diagram and flow chart shown in the drawings attached to this specification represent logical boundaries between the configurations.
  • the depicted configurations and their functions are executed in the form of stand-alone software modules, monolithic software structures, codes, services, and combinations thereof, and can execute stored program code, instructions, etc. Since the functions can be implemented by being stored in a medium executable on a computer equipped with a processor, all of these embodiments should also be regarded as falling within the scope of the present invention.

Abstract

비대면 질환 진단 방법 및 장치가 제공된다. 본 발명에 따른 비대면 질환 진단 방법은, 사용자의 제1 증상 정보를 기초로, 복수의 후보 질환 중에서 적어도 하나를 의심 질환으로 설정하는 단계, 복수의 의심 질환이 설정되는 경우, 상기 복수의 의심 질환 중 적어도 둘에 의해 유발되는 통증을 서로 다른 수준으로 변화시키는 것으로 미리 정해진 통증 가감 행동을 결정하는 단계, 상기 통증 가감 행동의 실시를 요청하는 행동 요청 메시지를 적어도 하나의 사용자 디바이스에게 전송하는 단계, 상기 사용자가 상기 통증 가감 행동을 실시한 후의 제2 증상 정보를 기초로, 상기 복수의 의심 질환 중에서 적어도 하나를 상기 사용자의 대표 질환으로 설정하는 단계, 및 상기 대표 질환에 연관된 질환 진단 정보를 상기 적어도 하나의 사용자 디바이스에게 전송하는 단계를 포함한다.

Description

비대면 질환 진단 방법 및 장치
본 발명은 비대면으로 사용자의 증상을 진단하여 질환 진단 정보를 제공하는 방법 및 장치에 관한 것으로서, 보다 상세하게는, 사용자가 특정 행동을 실시하기 전의 증상 정보와 특정 행동을 실시한 후의 증상 정보를 순차 분석하여 사용자에게 유의미한 질환 진단 정보를 제공하는 기술에 관한 것이다.
환자들은 자신의 신체적 증상이 어떠한 질환으로 인해 발현되었는지 파악하기 쉽지 않고, 자신의 질환에 대한 진찰이 가능한 적절한 의료 기관을 선택하는 데에 어려움을 겪고 있다. 더욱이 최근 코로나 19의 전세계적인 대유형을 계기로 하여 비대면 진료 서비스에 대한 니즈가 어느 때보다 커지고 있다.
이러한 니즈에 맞춰, 환자와 의료인(예, 의사, 약사) 간에 증상 정보, 진료 정보 및 처방 정보를 상호 공유할 수 있도록 인터넷을 통해 환자와 의료인를 매칭시켜 주는, 이른바 비대면 의료인 매칭 서비스들이 속속 제안되어 오고 있다.
비대면 의료인 매칭 서비스의 경우, 전문적 소양을 갖춘 의료인이 환자의 증상을 살펴본 결과에 따라 진료 정보가 제공한다는 점에서 환자의 증상에 관하여 일정 수준의 적절성을 보장할 수는 있으나, 그에 상응하는 높은 서비스 요금이 책정될 수 있으며, 의료인의 스케쥴에 따라 중증의 환자에 대한 진료가 지연될 수 있다는 점에서는 한계가 있다.
비대면 의료인 매칭 서비스의 단점에 대한 대안으로서 비대면 자가 진단 서비스 또한 존재한다. 비대면 자가 진단 서비스는, 사용자 단말에 입력된 환자의 증상 정보에 고유의 처리 로직(예, 인공지능, 빅데이터, 자연어 처리 등)을 적용하여 증상 정보에 매칭되는 질환 정보를 검색하거나 추정하여 환자에게 안내해주는 것을 기본 원리로 한다.
그런데, 환자의 증상과 동일·유사한 증상을 유발하는 다수 질환들이 존재하는 경우에는 처리 로직의 우수하더라도, 특정 시점에서 입력되거나 센싱된 환자의 증상 정보만으로는 다수 질환들 중에서 환자가 실제로 겪고 있는 질환이 어느 것인지 식별하기 어렵다.
본 발명은, 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 특정 시점에서의 사용자의 증상 정보에 연관된 복수의 의심 질환이 존재하는 경우, 사용자에게 특정 행동을 실시하도록 요청한 다음, 특정 행동의 실시 후의 추가적인 증상 정보를 기초로 복수의 의심 질환 중 적어도 하나를 필터링하여 적어도 하나의 대표 질환을 결정함으로써, 사용자에게 제공되는 질환 진단 정보의 품질 및 정확도를 향상시키는 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타난 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
본 발명의 일 측면에 따른 비대면 질환 진단 방법은, 사용자의 제1 증상 정보를 기초로, 복수의 후보 질환 중에서 적어도 하나를 의심 질환으로 설정하는 단계, 복수의 의심 질환이 설정되는 경우, 상기 복수의 의심 질환 중 적어도 둘에 의해 유발되는 통증을 서로 다른 수준으로 변화시키는 것으로 미리 정해진 통증 가감 행동을 결정하는 단계, 상기 통증 가감 행동의 실시를 요청하는 행동 요청 메시지를 적어도 하나의 사용자 디바이스에게 전송하는 단계, 상기 사용자가 상기 통증 가감 행동을 실시한 후의 제2 증상 정보를 기초로, 상기 복수의 의심 질환 중에서 적어도 하나를 상기 사용자의 대표 질환으로 설정하는 단계, 및 상기 대표 질환에 연관된 질환 진단 정보를 상기 적어도 하나의 사용자 디바이스에게 전송하는 단계를 포함한다.
상기 제1 증상 정보는, 상기 적어도 하나의 사용자 디바이스에게 제공된 제1 문진표의 복수의 문진 항목에 일대일 대응하도록 입력된 복수의 문진 내용을 포함할 수 있다.
상기 복수의 후보 질환 중에서 적어도 하나를 의심 질환으로 설정하는 단계는, 상기 제1 증상 정보에 대한 상기 복수의 후보 질환 각각의 관련도를 결정하는 단계, 및 상기 제1 증상 정보와의 관련도가 기준치 이상인 후보 질환, 또는 상기 제1 증상 정보와의 관련성이 높은 순서로 소정 개수의 후보 질환을 상기 의심 질환으로 설정하는 단계를 포함할 수 있다.
상기 제1 증상 정보에 대한 상기 복수의 후보 질환 각각의 관련도를 결정하는 단계는, 상기 복수의 후보 질환 각각에 대해, 사전 정의된 배점표로부터, 당해 후보 질환과 상기 복수의 문진 내용 각각의 쌍별로 미리 배정된 점수를 조회하는 단계, 및 상기 복수의 문진 내용에 일대일 대응하도록 상기 배점표로부터 조회된 복수의 점수의 합계와 동일하게 당해 후보 질환의 상기 관련도를 결정하는 단계를 포함할 수 있다.
상기 행동 요청 메시지는, 상기 통증 가감 행동을 설명하는 이미지, 동영상, 문구 및 음성 중 적어도 하나를 포함할 수 있다.
상기 제2 증상 정보는, 상기 통증 가감 행동의 실시 전후로의 상기 사용자의 통증 세기 및 통증 범위 중 적어도 하나의 변화를 나타낼 수 있다.
상기 복수의 의심 질환 중에서 적어도 하나를 상기 사용자의 대표 질환으로 설정하는 단계는, 상기 제2 증상 정보에 대한 상기 복수의 의심 질환 각각의 관련도를 결정하는 단계, 및 상기 복수의 의심 질환 중에서, 상기 제2 증상 정보와의 관련도가 가장 높은 의심 질환을 상기 대표 질환으로 설정하는 단계를 포함할 수 있다.
상기 비대면 질환 진단 방법은, 상기 적어도 하나의 사용자 디바이스로부터 상기 사용자의 신체 활동 정보 및 외부 환경 정보 중 적어도 하나를 포함하는 부가 정보를 수신하는 단계를 더 포함할 수 있다.
상기 신체 활동 정보는, 상기 사용자의 체온, 혈압, 심박수, 심전도, 운동량 및 이동 속도 중 적어도 하나의 시계열을 포함할 수 있다. 상기 외부 환경 정보는, 상기 사용자의 위치에서의 온도, 습도, 기압 및 풍속 중 적어도 하나의 시계열을 포함할 수 있다.
상기 비대면 질환 진단 방법은, 상기 부가 정보를 기초로, 신체 안정화 시간을 산출하는 단계를 더 포함할 수 있다.
상기 행동 요청 메시지는, 상기 신체 안정화 시간이 경과된 이후에 상기 통증 가감 행동의 실시를 요청하는 메시지일 수 있다.
상기 질환 진단 정보는, 상기 대표 질환을 진료 가능한 의료 기관, 상기 대표 질환을 경감시키는 권장 행동 및 상기 대표 질환을 악화시키는 위험 행동 중 적어도 하나를 나타낼 수 있다.
본 발명의 다른 측면에 따른 컴퓨터 프로그램은, 상기 비대면 질환 진단 방법을 실행시킨다.
본 발명의 또 다른 측면에 따른 비대면 질환 진단 장치는, 사용자의 제1 증상 정보를 수신하는 통신부; 및 상기 제1 증상 정보를 기초로, 사전 정의된 복수의 후보 질환 중에서 적어도 하나를 의심 질환으로 설정하고, 복수의 의심 질환이 설정되는 경우, 상기 복수의 의심 질환 중 적어도 둘에 의해 유발되는 통증을 서로 다른 수준으로 변화시키는 것으로 미리 정해진 통증 가감 행동을 결정하는 제어부를 포함한다. 상기 제어부는, 상기 통증 가감 행동의 실시를 요청하는 행동 요청 메시지를 적어도 하나의 사용자 디바이스에게 전송하도록 상기 통신부를 제어하고, 상기 통증 가감 행동을 실시한 후의 상기 사용자의 제2 증상 정보를 기초로, 상기 복수의 의심 질환 중에서 어느 하나를 상기 사용자의 대표 질환으로 설정하고, 상기 대표 질환에 연관된 질환 진단 정보를 상기 적어도 하나의 사용자 디바이스에게 전송하도록 상기 통신부를 제어한다.
본 발명의 실시예들 중 적어도 하나에 의하면, 특정 시점에서의 사용자의 증상 정보에 연관된 복수의 의심 질환이 존재하는 경우, 사용자에게 특정 행동(통증 가감 행동)을 실시하도록 요청한 다음, 특정 행동의 실시 후의 추가적인 증상 정보를 기초로 복수의 의심 질환 중 적어도 하나를 필터링하여 대표 질환을 결정할 수 있다.
즉, 특정 행동의 실시 전의 증상 정보를 이용하여 전체 질환들(후보 질환군) 중의 일부만을 포함하는 의심 질환군을 1차적으로 선별한 다음, 특정 행동의 실시 후의 증상 정보를 이용하여 의심 질환군 중에서 하나를 대표 질환으로서 2차적으로 선별함으로써, 사용자에게 제공되는 질환 진단 정보의 품질 및 정확도를 향상시킬 수 있다.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 복수의 의심 질환이 선별된 경우, 이들 중 적어도 둘 이상에 대해 서로 상이한 관련도(예, 통증 세기의 변화 수준, 통증 발현 범위의 변화 수준)를 갖는 것으로 미리 정해진 행동을 특정 행동으로 결정할 수 있다. 이에 따라, 의심 질환군으로부터 대표 질환군을 선별함에 있어서, 특정 행동의 실시 후의 추가적인 증상 정보의 유효성을 확보할 수 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술되는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 일 실시예에 따른 질환 진단 서비스 제공 시스템의 구성을 예시적으로 나타낸 도면이다.
도 2는 본 발명의 다른 실시예에 따른 비대면 질환 진단 서비스 제공 방법을 예시적으로 나타낸 순서도이다.
도 3a 및 도 3b는 제1 문진표에 대한 문진 답변의 입력 상황을 예시적으로 설명하는 데에 참조되는 도면이다.
도 4는 도 2의 단계 S220에서 수행되는 의심 질환의 설정 프로세스의 상세 루틴을 예시적으로 보여주는 순서도이다.
도 5는 도 4를 설명하는 데에 참조되는 제1 배점표를 예시한다.
도 6a 내지 도 6c는 적어도 하나의 사용자 디바이스에서 행동 요청 메시지를 수신 시에 출력되는 예시적인 화면 정보를 설명하는 데에 참조되는 도면이다.
도 7은 제2 문진표에 대한 문진 답변의 입력 상황을 예시적으로 설명하는 데에 참조되는 도면이다.
도 8은 도 2의 단계 S250에서 수행되는 대표 질환의 설정 프로세스의 상세 루틴을 예시적으로 보여주는 순서도이다.
도 9는 도 8을 설명하는 데에 참조되는 제2 배점표를 예시한다.
본 발명의 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하의 상세한 설명에 의해 보다 명확하게 이해될 것이다. 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다.
본 명세서에서 개시되는 실시예들은 본 발명의 범위를 한정하는 것으로 해석되거나 이용되지 않아야 할 것이다. 이 분야의 통상의 기술자에게 본 명세서의 실시예를 포함한 설명은 다양한 응용을 갖는다는 것이 당연하다. 따라서, 본 발명의 상세한 설명에 기재된 임의의 실시예들은 본 발명을 보다 잘 설명하기 위한 예시적인 것이며 본 발명의 범위가 실시예들로 한정되는 것을 의도하지 않는다.
도면에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한, 본 발명의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 본 발명의 기능 블록들 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합일 수 있다.
제1, 제2 등과 같이 서수를 포함하는 용어들은, 다양한 구성요소들 중 어느 하나를 나머지와 구별하는 목적으로 사용되는 것이고, 그러한 용어들에 의해 구성요소들을 한정하기 위해 사용되는 것은 아니다.
또한, 어떤 구성요소들을 포함한다는 표현은 "개방형"의 표현으로서 해당 구성요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성요소들을 배제하는 것으로 이해되어서는 안 된다.
나아가 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급될 때에는, 그 다른 구성요소에 직접적으로 연결 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다.
도 1은 본 발명의 일 실시예에 따른 질환 진단 서비스 제공 시스템(10)의 구성을 예시적으로 나타낸 도면이다.
도 1을 참조하면, 질환 진단 서비스 제공 시스템(10)은, 적어도 하나의 사용자 디바이스(100a, 100b) 및 비대면 질환 진단 장치(200)(이하, '질환 진단 장치'라고 칭함)를 포함한다. 도 1에서는, 적어도 하나의 사용자 디바이스(100a, 100b)로서 사용자 디바이스(100a) 및 사용자 디바이스(100b)가 제시되어 있다.
사용자 디바이스(100a) 및 사용자 디바이스(100b) 각각은, 임의의 질환에 의해 발현되는 증상을 겪는 환자(의료 소비자)로서의 사용자가 소지한 단말기이다.
사용자 디바이스(100a)는, 인터넷 등의 제1 통신 채널을 통해 질환 진단 장치(200)에 접속되어, 후술된 사용자의 진단 정보에 기초한 질환 진단 프로세스에 요구되는 각종 정보를 상호 송수신할 수 있다. 사용자 디바이스(100b) 또한 제1 통신 채널을 통해 질환 진단 장치(200)에 접속되어, 질환 진단 프로세스에 요구되는 각종 정보를 상호 송수신할 수 있다.
사용자 디바이스(100a)와 사용자 디바이스(100b)는, 블루투스 등의 제2 통신 채널을 통해 상호 접속되어, 질환 진단 프로세스에 요구되는 각종 정보를 상호 송수신할 수 있다.
사용자 디바이스(100a)와 사용자 디바이스(100b)는, 데이터 송수신 기능(예, 안테나, 네트워크 인터페이스), 정보 입력 기능(예, 터치 패널, 마이크로폰, 카메라), 정보 출력 기능(예, 디스플레이, 스피커), 정보 처리 기능(예, CPU) 및 정보 저장 기능(예, SD 카드)을 갖는 공지의 컴퓨팅 디바이스들 중 하나 또는 둘 이상의 조합으로 구현될 수 있다. 일 예로, 사용자 디바이스(100a)는 퍼스널 컴퓨터, 스마트 폰, 태블릿 PC 등과 같은 착용 불가한의 모바일 기기이고, 사용자 디바이스(100b)는 스마트 워치 등과 같이 사용자의 신체 일부분에 착용 가능한(wearable)의 모바일 기기일 수 있다.
이 경우, 사용자 디바이스(100b)는, 사용자의 신체 일부분에 착용된 상태에서 사용자의 생체 신호, 이를 테면 체온, 혈압, 심박수, 심전도, 운동량 등을 계측 가능한 공지의 센서들 중 하나 또는 둘 이상을 포함할 수 있다. 사용자 디바이스(100a) 및 사용자 디바이스(100b) 중 적어도 하나는, GPS를 이용하여 위치 정보를 센싱할 수 있다.
질환 진단 장치(200)는, 유무선 네트워크를 통해 사용자 디바이스(100a)와 접속되어 질환 진단 프로세스에 요구되는 각종 정보를 상호 송수신할 수 있다. 물론, 질환 진단 장치(200)는, 사용자 디바이스(100a)와 마찬가지로, 유무선 네트워크를 통해 사용자 디바이스(100b)에 접속될 수 있다.
대안적으로, 질환 진단 장치(200)는, 사용자 디바이스(100b)에 직접 접속되는 대신, 사용자 디바이스(100a)를 통해 사용자 디바이스(100b)와 통신할 수 있다. 예를 들어, 사용자 디바이스(100b)에 의해 계측된 사용자 생체 정보(예, 생체 신호별 시계열)는 사용자 디바이스(100a)에 전달된 다음, 사용자 디바이스(100a)가 질환 진단 장치(200)에게 사용자 생체 정보를 전송할 수 있다. 유사하게, 질환 진단 장치(200)는 사용자 디바이스(100b)가 수신처로 설정된 임의의 정보를 사용자 디바이스(100a)에게 전달한 다음, 사용자 디바이스(100a)는 질환 진단 장차로부터 전달받은 정보의 수신처를 참조하여 사용자 디바이스(100b)에게 해당 정보를 전송할 수 있다. 이로써, 사용자 디바이스(100a) 및 사용자 디바이스(100b) 중 어느 하나가 제1 통신 채널에 미접속된 상태에서도, 사용자 디바이스(100a) 및 사용자 디바이스(100b) 중 다른 하나에 의해 질환 진단 장치(200)와의 통신을 지속할 수 있다.
질환 진단 장치(200)는, 통신부(210) 및 제어부(230)를 포함할 수 있다.
통신부(210)는, 제1 통신 채널을 통한 사용자 디바이스(100a) 및 사용자 디바이스(100b) 중 적어도 하나와의 접속 및 통신을 실시하는 통신 회로를 포함한다. 일 예로, 통신부(210)는, 사용자 디바이스(100a)로부터 진단 요청, 증상 정보, 디바이스 위치 정보 등을 수신하고, 사용자 디바이스(100a)에게 문진표, 행동 요청 메시지, 질환 진단 정보 등을 전송한다. 다른 예로, 통신부(210)는, 사용자 디바이스(100b)로부터 디바이스 위치 정보, 생체 정보, 외부 환경 정보 등을 수신하고, 사용자 디바이스(100b)에게 질환 진단 정보 등을 전송한다. 외부 환경 정보는, 사용자 디바이스(100a)나 사용자 디바이스(100b)로부터 제공되는 대신, 사용자 디바이스(100a) 및 사용자 디바이스(100b) 중 적어도 하나로부터의 디바이스 위치 정보를 근거로, 기상청 서버 등로부터 수집되는 것일 수 있다.
저장부(220)는, 후술된 제어부(230)가 비대면 질환 진단 프로세스를 진행하는 데에 이용되는, 데이터, 정보 및 프로그램들을 기록하고 있다. 저장부(220)에 기록된 프로그램들 중 적어도 하나는 제어부(230)에 의해 실행 가능한 명령어들의 집합으로 구현될 수 있다. 저장부(220)는, 하드웨어적으로 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 저장부(220)는, 도 2, 도 4 및 도 8에 따른 비대면 질환 진단 서비스 제공 방법을 실행시키는 컴퓨터 판독 가능한 기록 매체를 구비할 수 있다.
저장부(220)는, 복수의 신체 부위에 일대일 대응하는 복수의 질환 리스트를 저장한다. 즉, 각 질환 리스트는, 특정 신체 부위에 매핑되며, 둘 이상의 후보 질환을 포함한다.
저장부(220)는, 복수의 통증 가감 행동을 포함하는 제1 행동 리스트를 저장한다. 각 통증 가감 행동은, 복수의 후보 질환 중 적어도 하나에 의한 통증의 수준을 일시적(비영구적)으로 강화 또는 완화하는 것으로 사전 정의된 것이다.
일 예로, 제1 통증 가감 행동(예, 몸통을 좌우로 천천히 비틀기)은, 기준 행동(예, 허리를 곧게 편 상태로 서 있기) 대비 제1 후보 질환에 의한 통증을 제1 수준만큼 심화(경화)시키는 반면 제2 및 제3 후보 질환에 의한 통증은 각각 제2 수준만큼 완화시키는 행동일 수 있다. 다른 예로, 제2 통증 가감 행동(예, 다리를 편 상태로 허리를 45도 정도 숙이기)은, 기준 행동 대비 제2 후보 질환에 의한 통증을 제3 수준만큼 심화시키는 반면 제4 후보 질환에 의한 통증은 제4 수준만큼 심화시키는 행동일 수 있다. 또 다른 예로, 제3 통증 가감 행동(예, 빠르게 걷기)은, 기준 행동 대비 제5 및 제6 후보 질환에 의한 통증을 제5 수준만큼 완화시키는 반면 제1 및 제7 후보 질환에 의한 통증은 제6 수준만큼 완화시키는 행동일 수 있다. 또 다른 예로, 제4 통증 가감 행동(예, 고개를 좌우로 천천히 돌리기)은, 기준 행동 대비 제8 후보 질환에 의한 통증을 제7 수준만큼 심화시키는 반면 나머지 후보 질환들에 의한 통증에는 유의미한 변화를 미치지 않는 행동일 수 있다.
복수의 통증 가감 행동 중 적어도 하나는, 복수의 후보 질환 중에서 적어도 둘에 의해 유발되는 통증을 서로 다른 수준으로 변화시키는 것으로 미리 정해져 있을 수 있다.
저장부(220)는, 복수의 권장 행동을 포함하는 제2 행동 리스트를 저장할 수 있다. 각 권장 행동은, 복수의 후보 질환 중 적어도 하나를 경감시키는 것으로 미리 정해진 것이다.
저장부(220)는, 복수의 위험 행동을 포함하는 제3 행동 리스트를 저장할 수 있다. 각 위험 행동은, 복수의 후보 질환 중 적어도 하나를 악화시키는 것으로 미리 정해진 것이다.
저장부(220)는, 복수의 의료 기관을 포함하는 의료 기관 리스트를 저장할 수 있다. 의료 기관 리스트의 각 의료 기관은, 적어도 하나의 후보 질환에 매핑되어 있다.
제어부(230)는, 통신부(210) 및 저장부(220)에 동작 가능하게 결합되어, 질환 진단 장치(200)의 전체적인 동작들을 관장하는 주체로서, 하드웨어적으로 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
도 2는 본 발명의 다른 실시예에 따른 비대면 질환 진단 서비스 제공 방법을 예시적으로 나타낸 순서도이다. 본 명세서에 있어서, '적어도 하나의 사용자 디바이스(100a, 100b)'라 함은 사용자 디바이스(100a) 및 사용자 디바이스(100b) 중 적어도 하나를 지칭한다. 또한, '적어도 하나의 사용자 디바이스(100a, 100b)'에 대한 전송 동작에 대한 설명은 사용자 디바이스(100a) 및 사용자 디바이스(100b) 중 적어도 하나에 대한 전송 동작을 의미한다. 또한, '적어도 하나의 사용자 디바이스(100a, 100b)'에 의한 전송 동작에 대한 설명은 사용자 디바이스(100a) 및 사용자 디바이스(100b) 중 적어도 하나에 의한 전송 동작을 의미한다.
도 1 및 도 2를 참조하면, 단계 S210에서, 적어도 하나의 사용자 디바이스(100a, 100b)는, 질환 진단 장치(200)에게 진단 요청 신호를 전송한다. 예컨대, 적어도 하나의 사용자 디바이스(100a, 100b)는, 그에 설치된 질환 진단용 어플리케이션의 실행 시에 화면에 표시되는 질환 진단 요청 버튼에 대한 사용자의 터치 이벤트에 따라 진단 요청 신호를 질환 진단 장치(200)에게 전송할 수 있다.
단계 S212에서, 질환 진단 장치(200)는, 진단 요청 신호에 응답하여, 적어도 하나의 사용자 디바이스(100a, 100b)에게 제1 증상 정보를 요청한다. 질환 진단 장치(200)는, 적어도 하나의 사용자 디바이스(100a, 100b)에게 제1 증상 정보를 요청 시, 기준 행동을 취한 상태에서의 자각 증상을 설명하는 제1 증상 정보를 입력할 것을 사용자에게 안내하는 메시지를 함께 전송할 수 있다. 기준 행동은, 고정된 특정 자세이거나 순서화된 일련의 자세들로 구성된 동작일 수 있으며, 신체 부위별로 미리 정해질 수 있다. 가령, 허리에 대한 기준 행동은 발에 대한 기준 행동과는 상이할 수 있다.
질환 진단 장치(200)는, 질환 진단 요청에 응답하여, 통증 부위에 연관된 복수의 문진 항목을 포함하는 제1 문진표를 적어도 하나의 사용자 디바이스(100a, 100b)에게 전송할 수 있다. 제1 문진표는, UI의 형태로 적어도 하나의 사용자 디바이스(100a, 100b)의 화면 상에 표시될 수 있다.
단계 S214에서, 적어도 하나의 사용자 디바이스(100a, 100b)는, 제1 증상 정보를 생성한다. 예컨대, 적어도 하나의 사용자 디바이스(100a, 100b)는, 터치, 클릭, 가상 키보드, 음성 녹음 등의 기능을 활성화하여, 제1 문진표(300)의 복수의 문진 항목에 일대일 대응하는 복수의 문진 답변을 사용자로부터 입력받아 제1 증상 정보를 생성할 수 있다.
도 3a은 제1 문진표(300)에 대한 문진 답변의 입력 상황을 예시적으로 설명하는 데에 참조되는 도면이다. 도 3a에 도시된 제1 문진표(300)는 사용자의 통증 부위가 허리인 경우를 상정하였다. 제1 문진표(300)는 각각에 매칭된 체크 박스에 대한 선택 이벤트(예, 터치)를 통해 해당 유무를 문진 답변으로서 입력 가능한 5개의 문진 항목을 제시하고 있다. 각 문진 항목에는 고유의 항목 코드가 기 할당된 상태일 수 있고, 각 문진 항목에 입력된 문진 답변은 해당 문진 항목의 항목 코드에 매핑되어 질환 진단 장치(200)에게 제공될 수 있다. 일 예로, 제1 증상 정보 내에서, 1번, 3번 및 4번 문진 항목의 항목 코드(예, WO1, WO3, WO4)는 사용자가 해당 문진 항목에 따른 증상이 있음을 나타내는 값(예, 1)에 매핑되는 한편, 2번 및 5번 문진 항목의 항목 코드(예, WO1, WO3, WO4)는 사용자가 해당 문진 항목에 따른 증상이 없음을 나타내는 값(예, 0)에 매핑된다.
한편, 도 3a에서는 각 문진 항목에 대응하는 체크 박스에 대한 터치를 통해 단순히 해당 유무가 문진 답변으로 입력되는 것으로 도시하였으나, 이는 하나의 예시에 불과하다. 즉, 적어도 하나의 문진 항목에 대응하는 문진 답변은 선다형, 자유 기재형, 음성 녹음형 등으로 입력 가능하도록 제공될 수 있다. 자유 기재형으로 입력된 문진 답변은 자연어 처리 등을 통해 표준화된 수치나 용어 등으로 변환될 수 있고, 음성 녹음형으로 입력된 문진 답변은 STT(Speech To Text) 등을 통해 표준화된 수치나 용어 등으로 변환될 수 있다.
사용자 디바이스(100a, 100b)의 화면에는 제1 문진표(300)를 통한 제1 증상 정보의 입력 시 사용자 편의성을 제고하기 위한 가이드 영상이 표시될 수 있다. 일 예로, 4번 문진 항목의 표시 영역이 선택(예, 터치)되는 경우, 도 3b에 도시된 바와 같이 4번 문진 항목에 맵핑된 캐릭터(310, 320)가 등장하는 가이드 영상이 사용자 디바이스(100a, 100b)의 화면에 표시될 수 있다. 4번 문진 항목은 "양 팔을 위로 들었을 때에 양쪽 손의 높이가 다르다"이므로, 가이드 영상 속 캐릭터(310, 320) 또한 양 팔을 머리 위로 들어올렸을 때의 모습을 표현하며, 이때 양쪽 손의 높이가 같은 캐릭터(310)와 양쪽 손의 높이가 다른 캐릭터(320)가 동시에 표시되거나 시간차를 두고 번갈아가며 표시될 수 있다. 사용자는 화면에 표시되는 캐릭터(310, 320)의 모습을 참조하여 제1 증상 정보를 적절히 입력하는 데에 도움을 받을 수 있다. 도 3a 및 도 3b에서는 4번 문진 항목을 예로 들었으나 다른 문진 항목에도 그에 대응하는 캐릭터가 등장하는 가이드 영상이 맵핑되어, 사용자의 선택 여부에 따라 화면에 표시될 수 있음은 물론이다. 단계 S216에서, 적어도 하나의 사용자 디바이스(100a, 100b)는, 질환 진단 장치(200)에게 제1 증상 정보를 전송한다.
단계 S220에서, 질환 진단 장치(200)는, 제1 증상 정보를 기초로, 복수의 후보 질환 중에서 적어도 하나를 의심 질환으로 설정한다. 단계 S210에서의 복수의 후보 질환은, 질환 진단 장치(200)에 의해 진단 가능한 것으로 사전 정의된 전체 질환들 중에서 단계 S210에서의 사용자 통증 부위에 매핑된 일부일 수 있다. 가령, 사용자의 통증 부위가 허리로 지정된 경우, 허리디스크, 척추관 협착증, 척추 전방전위증, 척추 측만증, 추간판 탈출증 등과 같은 허리 관련 후보 질환들 중에서 의심 질환이 설정될 수 있다. 단계 S220의 상세 루틴에 관하여는 도 4 및 도 5를 참조하여 후술하기로 한다.
단계 S222에서, 질환 진단 장치(200)는, 복수의 의심 질환이 설정되었는지 여부를 판정한다. 단계 S222의 값이 "예"인 경우, 단계 S230으로 진행된다. 단계 S222의 값이 "아니오"인 것은 단일의 후보 질환만이 의심 질환으로 설정되었음을 나타내며, 해당 의심 질환은 대표 질환으로 취급되어 단계 S260으로 진행될 수 있다.
단계 S230에서, 질환 진단 장치(200)는, 저장부(220)에 기록된 제1 행동 리스트를 참조하여, 복수의 의심 질환 중 적어도 둘에 의해 유발되는 통증(통증의 세기, 통증이 느껴지는 신체 범위 등)을 서로 다른 수준으로 변화시키는 것으로 미리 정해진 통증 가감 행동을 결정한다.
단계 S234에서, 질환 진단 장치(200)는, 적어도 하나의 사용자 디바이스(100a, 100b)에게, 통증 가감 행동의 실시를 요청하는 행동 요청 메시지를 전송한다.
도 6a는 적어도 하나의 사용자 디바이스(100a, 100b)에서 행동 요청 메시지를 수신 시에 출력되는 예시적인 화면 정보를 설명하는 데에 참조되는 도면이다. 도 6a를 참조하면, 행동 요청 메시지는, 단계 S230에서 결정된 통증 가감 행동을 설명하는 이미지나 동영상(캐릭터 등의 그래픽 객체를 포함), 문구 및 음성 중 적어도 하나를 포함한다. 행동 요청 메시지는, 적어도 하나의 사용자 디바이스(100a, 100b)의 화면 상에 푸시 메시지의 형태로 표시될 수 있다.
행동 요청 메시지는 사용자가 통증 가감 행동을 실시할 때의 주의 사항을 나타내는 안내 영상을 포함할 수 있다. 일 예로, 도 6a과 같이 통증 가감 행동을 설명하는 이미지나 동영상을 표시하기 전 또는 후로, 통증 가감 행동을 취함에 있어서 사용자가 피해야 하거나 반드시 숙지해야 하는 사항에 연관된 행동 양식을 설명하는 하나 또는 여러 캐릭터(610, 620)가 등장하는 안내 영상이 도 6b에 도시된 바와 같이 사용자 디바이스(100a, 100b)의 화면에 표시될 수 있다.한편, 통증 가감 행동의 실시를 요청하는 행동 요청 메시지는 도 6c와 같은 형태로도 표시될 수 있다. 도 6c를 참고할 때, 사용자는 통증 가감 행동을 설명하는 이미지 또는 동영상을 시청하기 전후로, 화면에 표시되는 캐릭터를 통해 자신이 느끼는 통증 부위를 선택(예, 터치, 클릭)하도록 유도될 수 있으며, 사용자가 특정 통증 부위를 선택한 경우에는 '다음 단계'의 통증 가감 행동이 안내될 수 있다. 이러한 방식으로 통증 가감 행동의 실시가 복수 회 이루어질 수 있으며, 사용자는 통증 가감 행동 실시 후 느껴지는 통증들을 몇 번의 단순 선택 행동을 실시함으로써 질환 진단 장치(200) 측에 증상을 파악하기 위한 데이터를 제공할 수 있다.
한편, 앞서에서는 사용자 디바이스(100a, 100b)에 임의의 캐릭터가 표시되는 예를 설명하였으나, 질환 진단용 어플리케이션 상에는 개별 사용자의 3D 이미지가 표시될 수도 있다. 이를 위해, 사용자는 사전에 3D 촬영을 한 결과물(3D 이미지)을 질환 진단 장치(200)에 업로드 해 둘 수 있으며, 바람직하게 상기 3D 이미지는 병원, 또는 그 밖의 기관에서 사용자 동의를 얻어 촬영 및 공유된 것일 수 있다. 개별 사용자는 자신의 3D 이미지를 통해 자신의 신체부위를 기준으로 더 정확한 입력이 가능할 수 있다.
한편, 사용자는 사용자 디바이스(100a, 100b)를 이용하여, 전술된 캐릭터 등을 통해 가이드된 내용에 맞춰 실시한 행동이나 자신의 증상과 관련된 신체 부분을 촬영할 수 있다. 예를 들어, 사용자는 거치대에 사용자 디바이스(100a, 100b)를 거치하거나 또는 주변 지인에 사용자 디바이스(100a, 100b)를 맡겨, 통증 가감 행동 수행 과정을 따라하는 과정을 촬영할 수 있다. 이 때, 상기 사용자 디바이스(100a, 100b) 상에서 실행되는 질환 진단용 어플리케이션은 자체적으로 사용자 디바이스(100a, 100b)에 구비된 녹화수단을 제어하여 통증 가감 행동 수행이 시작될 시 자동으로 또는 사용자 명령에 따라 영상 녹화를 진행할 수 있다.
사용자 디바이스(100a, 100b)는, 사용자가 통증 가감 행동을 수행 중에 촬영되는 영상으로부터 사용자에 대응하는 인물 객체를 검출하고, 검출된 인물 객체의 움직임을 통증 가감 행동과 비교할 수 있다. 사용자 디바이스(100a, 100b)는, 객체 움직임과 통증 가감 행동 간의 유사도를 연산한 다음, 유사도가 임계치 이상인 경우, 사용자가 통증 가감 행동을 정확히 수행하였음을 질환 진단 장치(200)에게 통지할 수 있다. 질환 진단 장치(200)는, 사용자가 통증 가감 행동을 정확히 수행하였음을 사용자 디바이스(100a, 100b)로부터 통지받는 것을 조건으로 후술된 단계 S240를 진행할 수 있다. 만약, 사용자를 촬영하여 얻어진 영상으로부터 검출된 객체 움직임과 통증 가감 행동 간의 유사도가 임계치 미만인 경우, 사용자 디바이스(100a, 100b)는 통증 가감 행동의 재실시를 요청하는 메시지를 사용자에게 출력할 수 있다.
단계 S240에서, 질환 진단 장치(200)는, 적어도 하나의 사용자 디바이스(100a, 100b)에게 제2 증상 정보를 요청한다. 제2 증상 정보는, 통증 가감 행동의 실시 전후로의 사용자의 통증 세기 및 통증 범위 중 적어도 하나의 변화를 설명하는 것이다. 질환 진단 장치(200)는, 행동 요청 메시지의 전송 후, 통증 가감 행동의 실시에 따른 사용자의 통증 가감 정보를 식별하기 위한 적어도 하나의 문진 항목을 포함하는 제2 문진표(700)를 적어도 하나의 사용자 디바이스(100a, 100b)에게 전송할 수 있다.
단계 S242에서, 적어도 하나의 사용자 디바이스(100a, 100b)는, 제2 증상 정보를 생성한다. 예컨대, 적어도 하나의 사용자 디바이스(100a, 100b)는, 제2 문진표(700)의 문진 항목별 문진 답변을 사용자로부터 입력받아 제2 증상 정보를 생성할 수 있다. 도 7은 제2 문진표(700)에 대한 문진 답변의 입력 상황을 예시적으로 설명하는 데에 참조되는 도면이다. 도 7을 참조하면, 도 3a에서의 제1 문진표(300)와 유사하게, 제2 문진표(700)는 통증 가감 행동에 연관되어 저장부(220)에 저장된 것으로서, 통증 가감 행동의 실시에 따른 통증 세기의 변화 또는 통증 범위의 변화를 문진 답변으로서 입력 가능한 10개의 문진 항목을 제시하고 있다. 1번, 3번, 5번, 7번 및 9번의 문진 항목은 순서대로 2번, 4번, 6번, 8번 및 10번의 문진 항목과는 배타적이며, 배타적 관계의 두 문진 항목 중 어느 하나에 대한 수치가 입력되면 다른 하나에 대한 수치 입력은 비활성화될 수 있다. 도 7에서는 통증 가감 행동에 의해, 특히 허리 통증의 세기 및 허리 통증이 나타내는 신체 범위가 크게 개선된 것을 예시하고 있다.
단계 S244에서, 적어도 하나의 사용자 디바이스(100a, 100b)는, 질환 진단 장치(200)에게 제2 증상 정보를 전송한다. 사용자 디바이스(100a, 100b)는, 전술된 바에 따라 촬영된 영상을 질환 진단 장치(200)에게 전송할 수 있다. 질환 진단 장치(200)는, 추후 의료기관을 통한 사용자의 대면 또는 비대면 진료가 진행되는 경우 사용자 디바이스(100a, 100b)로부터 전달받은 영상을 의료기관에 제공하여, 사용자에 대한 보다 정확한 진단이 가능하도록 지원할 수 있다.
단계 S250에서, 질환 진단 장치(200)는, 제2 증상 정보를 기초로, 복수의 의심 질환 중에서 어느 하나를 사용자의 대표 질환으로 설정한다. 단계 S250의 상세 루틴에 관하여는 도 8 및 도 9를 참조하여 후술하기로 한다.
단계 S260에서, 질환 진단 장치(200)는, 대표 질환에 연관된 질환 진단 정보를 적어도 하나의 사용자 디바이스(100a, 100b)에게 전송한다. 질환 진단 정보는, 대표 질환을 진료 가능한 의료 기관, 대표 질환을 경감시키는 권장 행동 및 상기 대표 질환을 악화시키는 위험 행동 중 적어도 하나를 나타낸다.
한편, 도 2에 따른 방법은 단계 S218 및 단계 S232를 더 포함할 수 있다.
단계 S218에서, 적어도 하나의 사용자 디바이스(100a, 100b)는, 사용자의 신체 활동 정보 및 외부 환경 정보 중 적어도 하나를 포함하는 부가 정보를 질환 진단 장치(200)에게 전송한다. 신체 활동 정보는, 사용자의 체온, 혈압, 심박수, 심전도, 운동량 및 이동 속도 중 적어도 하나 항목의 시계열을 포함한다. 외부 환경 정보는, 사용자의 위치(사용자 디바이스의 위치)에서의 온도, 습도, 기압 및 풍속 중 적어도 하나의 항목의 시계열을 포함한다. 항목별 시계열은, 관심 기간에 걸친 해당 항목의 값의 변화를 나타낸다. 여기서, 관심 기간은, 예컨대 진단 요청 신호나 제1 증상 정보의 전송 시각을 종료 시각으로 하고 소정의 시간 길이를 갖는 기간일 수 있다.
외부 환경 정보의 일부 항목(예, 기압, 풍속)의 시계열은, 적어도 하나의 사용자 디바이스(100a, 100b)에 의해 직접 계측되는 대신, 질환 진단 장치(200)가 사용자 위치를 기초로 기상청 서버로부터 수집하거나, 적어도 하나의 사용자 디바이스(100a, 100b)에 설치된 날씨 정보 어플리케이션을 실행하여 획득되는 것일 수 있다. 대안적으로, 단계 S218은 단계 S216과 별개로 수행되는 대신, 단계 S216에서 제1 증상 정보의 전송 시에 부가 정보가 함께 전송될 수 있다. 또는, 질환 진단 장치(200)는, 단계 S222의 값이 "예"인 경우에 적어도 하나의 사용자 디바이스(100a, 100b)로부터 부가 정보를 수집할 수도 있다.
단계 S232에서, 질환 진단 장치(200)는, 부가 정보를 기초로, 신체 안정화 시간을 산출한다. 신체 안정화 시간은, 사용자의 신체 활동과 주변 환경으로 인해 가중된 사용자의 신체적 스트레스가 해소되는 데에 필요한 시간의 추정치이다. 일 예로, 동일 질환이더라도, 사용자가 가혹 조건(영하의 외부에서 오랜 시간 동안 고강도 운동을 진행한 직후)에서 느끼는 증상은, 적정 조건(실온에서 편안히 서있을 때)에서 느끼는 증상과는 뚜렷한 차이가 있을 것이다.
상세하게는, 저장부(220)에는, 부가 정보의 항목별 대표값과 항목별 안정 필요 시간 간의 관계 함수가 저장될 수 있다. 임의의 항목의 대표값이란, 해당 항목의 시계열의 최대값, 최소값, 평균값, 중간값 또는 적분값일 수 있다. 질환 진단 장치(200)는, 부가 정보의 항목별 대표값을 연산한 다음 관계 함수로부터 항목별 대표값에 대응하는 안정 필요 시간을 취득할 수 있다.
부가 정보에 복수의 항목들 포함된 경우, 질환 진단 장치(200)는 항목별 안정 필요 시간의 합계와 동일하게 신체 안정화 시간을 산출할 수 있다. 부가 정보에 단일 항목만이 포함된 경우, 신체 안정화 시간은 해당 항목의 안정 필요 시간과 동일하다. 만약, 부가 정보의 일부 항목의 시계열이 미취득된 경우, 질환 진단 장치(200)는 미취득된 각 항목에 대응하는 안정 필요 시간을 소정의 기준 시간과 동일하게 설정할 수 있다.
이때, 행동 요청 메시지는, 안정 필요 시간이 경과된 이후에 통증 가감 행동의 실시를 요청하는 메시지일 수 있다. 일 예로, 제1 증상 정보의 수신 시각 또는 그 이전의 특정 시각으로부터 신체 안정화 시간이 경과된 타이밍에서, 사용자에게 통증 가감 행동의 실시를 요청하는 알림 메시지가 적어도 하나의 사용자 디바이스(100a, 100b)에서 출력될 수 있다.
도 4는 도 2의 단계 S220에서 수행되는 의심 질환의 설정 프로세스의 상세 루틴을 예시적으로 보여주는 순서도이고, 도 5는 도 4를 설명하는 데에 참조되는 제1 배점표(500)를 예시한다. 도 4의 방법은, 복수의 후보 질환 각각에 대해서 1회씩 수행될 수 있다.
도 4를 참조하면, 단계 S410에서, 질환 진단 장치(200)는, 사전 정의된 제1 배점표(500)로부터, 후보 질환과 복수의 문진 답변 각각의 쌍별로 미리 배정된 점수를 조회한다.
도 5를 참조하면, 제1 배점표(500)는 복수의 문진 답변과 복수의 후보 질환에 대해 미리 배정된 점수들을 정의하고 있다. 일 예로, 도 3a에서와 같이 5개의 문진 답변이 입력된 경우, 후보 질환 1에 대해 5개의 점수인 1점, 1 점, 3 점, 2 점 및 5 점이 제1 배점표(500)로부터 조회되고, 후보 질환 2에 대해 5개의 점수인 5점, 8점, 3점, 4점 및 1점이 제1 배점표(500)로부터 조회되며, 후보 질환 3에 대해 5개의 점수인 3점, 4점, 1점, 5점 및 2 점이 제1 배점표(500)로부터 조회된다. 도 5에서는 제1 배점표(500)의 모든 점수가 0 또는 양수인 것으로 예시되어 있으나, 적어도 하나의 점수는 음수일 수 있다.
단계 S420에서, 질환 진단 장치(200)는, 복수의 문진 답변에 일대일 대응하도록 제1 배점표(500)로부터 조회된 복수의 점수의 합계와 동일하게, 후보 질환의 관련도를 결정한다. 일 예로, 후보 질환 1에 대해 조회된 5개 점수의 총 합인 12점은 제1 증상 정보에 대한 후보 질환 1의 관련도로 결정되고, 후보 질환 2에 대해 조회된 5개 점수의 총 합인 21점은 제1 증상 정보에 대한 후보 질환 2의 관련도로 결정되며, 후보 질환 3에 대해 조회된 5개 점수의 총 합인 15점은 제1 증상 정보에 대한 후보 질환 3의 관련도로 결정된다. 즉, 후보 질환 2이 제1 증상 정보에 대해 가장 높은 관련성을 가진다고 할 수 있고, 후보 질환 1이 제1 증상 정보에 대해 가장 낮은 관련성을 가진다고 할 수 있다.
단계 S430에서, 질환 진단 장치(200)는, 후보 질환의 관련도가 기준치 이상인지 여부를 판정한다. 기준치는 미리 정해진 값으로서 예컨대 15일 수 있다. 전술된 예에 따르면, 후보 질환 2 및 후보 질환 3에 대해서는 단계 S430의 값이 "예"로 출력되는 반면, 후보 질환 1에 대해서는 단계 S430의 값이 "아니오"로 출력된다. 단계 S430의 값이 "예"인 경우, 단계 S440로 진행된다.
단계 S440에서, 질환 진단 장치(200)는, 후보 질환을 의심 질환으로 설정한다.
대안적으로, 단계 S430 및 S440을 수행하는 대신, 단계 S410 및 단계 S420을 복수의 후보 질환 각각에 대해 진행하여 복수의 후보 질환에 일대일로 결정된 복수의 관련도를 결정한 다음, 관련성이 높은 순서로 소정 개수(예, 2)의 후보 질환을 의심 질환으로 설정하는 것도 무방하다.
도 8은 도 2의 단계 S250에서 수행되는 대표 질환의 설정 프로세스의 상세 루틴을 예시적으로 보여주는 순서도이고, 도 9는 도 8을 설명하는 데에 참조되는 제2 배점표(900)를 예시한다. 도 8의 방법은, 복수의 의심 질환 각각에 대해서 1회씩 수행될 수 있다. 도 4를 참조하여 전술된 과정을 통해 후보 질환 2 및 후보 질환 3이 각각 의심 질환 1 및 의심 질환 2로 설정된 것으로 가정한다.
도 8을 참조하면, 단계 S810에서, 질환 진단 장치(200)는, 사전 정의된 제2 배점표(900)로부터, 각 의심 질환과 복수의 문진 답변 각각의 쌍별로 미리 배정된 점수를 조회한다.
도 9에 도시된 제2 배점표(900)는 도 7에 따른 제2 문진표(700)에 대응하는 것이다. 제2 문진표(700)에서 짝수 번째의 문진 항목들은 비활성화된 상태이므로, 제2 배점표(900)에는 홀수 번째의 문진 답변들 각각과 의심 질환 1 및 의심 질환 2에 대해 배정된 점수들을 예시하고 있다. 일 예로, 도 7에서와 같이 5개의 홀수 번째 문진 항목에 대한 문진 답변이 입력된 경우, 의심 질환 1에 대해 5개의 점수인 2점, 1점, 4점, 1점 및 0점이 제2 배점표(900)로부터 조회되며, 의심 질환 2에 대해 5개의 점수인 8점, 7점, 4점, 1점 및 2점이 제2 배점표(900)로부터 조회된다.
단계 S820에서, 질환 진단 장치(200)는, 복수의 문진 답변에 일대일 대응하도록 제2 배점표(900)로부터 조회된 복수의 점수의 합계와 동일하게, 의심 질환의 관련도를 결정한다. 일 예로, 의심 질환 1에 대해 조회된 5개 점수의 총 합인 8점은 제2 증상 정보에 대한 의심 질환 1의 관련도로 결정되고, 의심 질환 2에 대해 조회된 5개 점수의 총 합인 22점은 제2 증상 정보에 대한 의심 질환 2의 관련도로 결정된다.
단계 S830에서, 질환 진단 장치(200)는, 복수의 의심 질환 중 제2 증상 정보에 대한 관련도가 가장 높은 어느 한 의심 질환을 대표 질환으로 설정한다.
대안적으로, 제2 증상 정보에 대한 최대 관련도와의 차이가 임계치 미만인 적어도 하나의 의심 질환이 존재하는 경우, 질환 진단 장치(200)는, 단계 S230을 재수행하여 새로운 통증 가감 행동을 결정한 다음, 새로운 통증 가감 행동에 대하여 단계 S234~S250을 수행할 수 있다.
본 발명은 상술한 특정의 실시예 및 응용예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 구별되어 이해되어서는 안 될 것이다.
특히, 본 명세서에 첨부된 도면에 도시된 블록도와 순서도에 포함된 본 발명의 기술적 특징을 실행하는 구성들은 상기 구성들 사이의 논리적인 경계를 의미한다. 그러나 소프트웨어나 하드웨어의 실시 예에 따르면, 도시된 구성들과 그 기능들은 독립형 소프트웨어 모듈, 모놀리식 소프트웨어 구조, 코드, 서비스 및 이들을 조합한 형태로 실행되며, 저장된 프로그램 코드, 명령어 등을 실행할 수 있는 프로세서를 구비한 컴퓨터에서 실행 가능한 매체에 저장되어 그 기능들이 구현될 수 있으므로 이러한 모든 실시 예 역시 본 발명의 권리범위 내에 속하는 것으로 보아야 할 것이다.
따라서, 첨부된 도면과 그에 대한 기술은 본 발명의 기술적 특징을 설명하기는 하나, 이러한 기술적 특징을 구현하기 위한 소프트웨어의 특정 배열이 분명하게 언급되지 않는 한, 단순히 추론되어서는 안 된다. 즉, 이상에서 기술한 다양한 실시 예들이 존재할 수 있으며, 그러한 실시 예들이 본 발명과 동일한 기술적 특징을 보유하면서 일부 변형될 수 있으므로, 이 역시 본 발명의 권리범위 내에 속하는 것으로 보아야 할 것이다.
또한, 순서도의 경우 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 가장 바람직한 결과를 얻기 위하여 도시된 것으로서, 도시된 특정한 순서나 순차적인 순서대로 그러한 동작들을 반드시 실행되어야 한다거나 모든 도시된 동작들이 반드시 실행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티 태스킹과 병렬 프로세싱이 유리할 수 있다. 아울러, 이상에서 기술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다.
10: 비대면 질환 진단 서비스 제공 시스템
100: 사용자 디바이스
200: 비대면 질환 진단 장치

Claims (12)

  1. 사용자의 제1 증상 정보를 기초로, 복수의 후보 질환 중에서 적어도 하나를 의심 질환으로 설정하는 단계;
    복수의 의심 질환이 설정되는 경우, 상기 복수의 의심 질환 중 적어도 둘에 의해 유발되는 통증을 서로 다른 수준으로 변화시키는 것으로 미리 정해진 통증 가감 행동을 결정하는 단계;
    상기 통증 가감 행동의 실시를 요청하는 행동 요청 메시지를 적어도 하나의 사용자 디바이스에게 전송하는 단계;
    상기 사용자가 상기 통증 가감 행동을 실시한 후의 제2 증상 정보를 기초로, 상기 복수의 의심 질환 중에서 적어도 하나를 상기 사용자의 대표 질환으로 설정하는 단계; 및
    상기 대표 질환에 연관된 질환 진단 정보를 상기 적어도 하나의 사용자 디바이스에게 전송하는 단계;
    를 포함하는 것을 특징으로 하는, 비대면 질환 진단 방법.
  2. 제1항에 있어서,
    상기 제1 증상 정보는,
    상기 적어도 하나의 사용자 디바이스에게 제공된 제1 문진표의 복수의 문진 항목에 일대일 대응하도록 입력된 복수의 문진 내용을 포함하는, 비대면 질환 진단 방법.
  3. 제2항에 있어서,
    상기 복수의 후보 질환 중에서 적어도 하나를 의심 질환으로 설정하는 단계는,
    상기 제1 증상 정보에 대한 상기 복수의 후보 질환 각각의 관련도를 결정하는 단계; 및
    상기 제1 증상 정보와의 관련도가 기준치 이상인 후보 질환, 또는 상기 제1 증상 정보와의 관련성이 높은 순서로 소정 개수의 후보 질환을 상기 의심 질환으로 설정하는 단계;
    를 포함하는 것을 특징으로 하는, 비대면 질환 진단 방법.
  4. 제3항에 있어서,
    상기 제1 증상 정보에 대한 상기 복수의 후보 질환 각각의 관련도를 결정하는 단계는,
    상기 복수의 후보 질환 각각에 대해,
    사전 정의된 배점표로부터, 당해 후보 질환과 상기 복수의 문진 내용 각각의 쌍별로 미리 배정된 점수를 조회하는 단계; 및
    상기 복수의 문진 내용에 일대일 대응하도록 상기 배점표로부터 조회된 복수의 점수의 합계와 동일하게 당해 후보 질환의 상기 관련도를 결정하는 단계;
    를 포함하는 것을 특징으로 하는, 비대면 질환 진단 방법.
  5. 제1항에 있어서,
    상기 행동 요청 메시지는,
    상기 통증 가감 행동을 설명하는 이미지, 동영상, 문구 및 음성 중 적어도 하나를 포함하는 것을 특징으로 하는, 비대면 질환 진단 방법.
  6. 제1항에 있어서,
    상기 제2 증상 정보는,
    상기 통증 가감 행동의 실시 전후로의 상기 사용자의 통증 세기 및 통증 범위 중 적어도 하나의 변화를 나타내는 것을 특징으로 하는, 비대면 질환 진단 방법.
  7. 제1항에 있어서,
    상기 복수의 의심 질환 중에서 적어도 하나를 상기 사용자의 대표 질환으로 설정하는 단계는,
    상기 제2 증상 정보에 대한 상기 복수의 의심 질환 각각의 관련도를 결정하는 단계; 및
    상기 복수의 의심 질환 중에서, 상기 제2 증상 정보와의 관련도가 가장 높은 의심 질환을 상기 대표 질환으로 설정하는 단계;
    를 포함하는 것을 특징으로 하는, 비대면 질환 진단 방법.
  8. 제1항에 있어서,
    상기 적어도 하나의 사용자 디바이스로부터 상기 사용자의 신체 활동 정보 및 외부 환경 정보 중 적어도 하나를 포함하는 부가 정보를 수신하는 단계;
    를 더 포함하되,
    상기 신체 활동 정보는, 상기 사용자의 체온, 혈압, 심박수, 심전도, 운동량 및 이동 속도 중 적어도 하나의 시계열을 포함하고,
    상기 외부 환경 정보는, 상기 사용자의 위치에서의 온도, 습도, 기압 및 풍속 중 적어도 하나의 시계열을 포함하는 것을 특징으로 하는, 비대면 질환 진단 방법.
  9. 제8항에 있어서,
    상기 부가 정보를 기초로, 신체 안정화 시간을 산출하는 단계;
    를 더 포함하되,
    상기 행동 요청 메시지는, 상기 신체 안정화 시간이 경과된 이후에 상기 통증 가감 행동의 실시를 요청하는 메시지인 것을 특징으로 하는, 비대면 질환 진단 방법.
  10. 제1항에 있어서,
    상기 질환 진단 정보는,
    상기 대표 질환을 진료 가능한 의료 기관, 상기 대표 질환을 경감시키는 권장 행동 및 상기 대표 질환을 악화시키는 위험 행동 중 적어도 하나를 나타내는 것을 특징으로 하는, 비대면 질환 진단 방법.
  11. 제1항 내지 제10항 중 어느 한 항에 따른 상기 비대면 질환 진단 방법을 실행시키는 컴퓨터 프로그램.
  12. 사용자의 제1 증상 정보를 수신하는 통신부; 및
    상기 제1 증상 정보를 기초로, 사전 정의된 복수의 후보 질환 중에서 적어도 하나를 의심 질환으로 설정하고, 복수의 의심 질환이 설정되는 경우, 상기 복수의 의심 질환 중 적어도 둘에 의해 유발되는 통증을 서로 다른 수준으로 변화시키는 것으로 미리 정해진 통증 가감 행동을 결정하는 제어부;
    를 포함하되,
    상기 제어부는,
    상기 통증 가감 행동의 실시를 요청하는 행동 요청 메시지를 적어도 하나의 사용자 디바이스에게 전송하도록 상기 통신부를 제어하고,
    상기 통증 가감 행동을 실시한 후의 상기 사용자의 제2 증상 정보를 기초로, 상기 복수의 의심 질환 중에서 어느 하나를 상기 사용자의 대표 질환으로 설정하고,
    상기 대표 질환에 연관된 질환 진단 정보를 상기 적어도 하나의 사용자 디바이스에게 전송하도록 상기 통신부를 제어하는 것을 특징으로 하는, 비대면 질환 진단 장치.
PCT/KR2023/004072 2022-05-24 2023-03-28 비대면 질환 진단 방법 및 장치 WO2023229191A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0063628 2022-05-24
KR1020220063628A KR20230163822A (ko) 2022-05-24 2022-05-24 비대면 질환 진단 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2023229191A1 true WO2023229191A1 (ko) 2023-11-30

Family

ID=88919554

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/004072 WO2023229191A1 (ko) 2022-05-24 2023-03-28 비대면 질환 진단 방법 및 장치

Country Status (2)

Country Link
KR (1) KR20230163822A (ko)
WO (1) WO2023229191A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012033244A1 (ko) * 2010-09-09 2012-03-15 엘지전자 주식회사 자가진찰방법 및 자가진찰장치
KR20140054197A (ko) * 2011-08-08 2014-05-08 게리 앤드 메어리 웨스트 헬스 인스티튜트 환자에 의해 관리되는 물리 재활치료를 증강시키기 위한 비침습적 모션 추적 시스템, 장치, 및 방법
US20160249864A1 (en) * 2015-02-27 2016-09-01 Samsung Electronics Co., Ltd. Method for measuring biological signal and wearable electronic device for the same
KR20200106691A (ko) * 2019-03-05 2020-09-15 (주)비바이노베이션 빅데이터 분석 및 인공지능 문진을 통한 질병 예측 정보를 제공하는 사용자 단말기
KR20210013419A (ko) * 2019-07-24 2021-02-04 주식회사 에버닌 트래커를 이용한 헬스 케어 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012033244A1 (ko) * 2010-09-09 2012-03-15 엘지전자 주식회사 자가진찰방법 및 자가진찰장치
KR20140054197A (ko) * 2011-08-08 2014-05-08 게리 앤드 메어리 웨스트 헬스 인스티튜트 환자에 의해 관리되는 물리 재활치료를 증강시키기 위한 비침습적 모션 추적 시스템, 장치, 및 방법
US20160249864A1 (en) * 2015-02-27 2016-09-01 Samsung Electronics Co., Ltd. Method for measuring biological signal and wearable electronic device for the same
KR20200106691A (ko) * 2019-03-05 2020-09-15 (주)비바이노베이션 빅데이터 분석 및 인공지능 문진을 통한 질병 예측 정보를 제공하는 사용자 단말기
KR20210013419A (ko) * 2019-07-24 2021-02-04 주식회사 에버닌 트래커를 이용한 헬스 케어 시스템

Also Published As

Publication number Publication date
KR20230163822A (ko) 2023-12-01

Similar Documents

Publication Publication Date Title
JP7300802B2 (ja) 患者の医学的状態もしくは治療又はその両方と関連付けられた拡張現実の提示
WO2022145782A2 (ko) 빅데이터 및 클라우드 시스템 기반 인공지능 응급의료 의사결정 및 응급환자 이송 시스템과 그 방법
US20190239791A1 (en) System and method to evaluate and predict mental condition
Dorsey et al. A new day: the role of telemedicine in reshaping care for persons with movement disorders
WO2019017508A1 (ko) 건강 컨설팅의 성공 예측 방법
Linn et al. Digital health interventions among people living with frailty: a scoping review
WO2021040373A1 (ko) 복합적 스트레스 지수에 기반한 스트레스 관리 방법
JP2002291706A (ja) ウェアラブルコンピュータ、ウェアラブルコンピュータ用プログラム、及びウェアラブルコンピュータを利用した医療診断システム
CN110868930B (zh) 信息处理系统
KR20220095104A (ko) 빅데이터 및 클라우드 시스템 기반 인공지능 응급의료 의사결정 및 응급환자 이송 시스템과 그 방법
Ho et al. Evaluation of real-time video from the digital indirect ophthalmoscope for telemedicine consultations in retinopathy of prematurity
WO2017146512A1 (en) Apparatus and method for detection of chronotropic incompetence
WO2014104463A1 (ko) 네츄럴 인터렉션 기반의 건강 및 재활 장치
WO2013002546A2 (ko) 유무선 통신망을 이용한 질병 관리 시스템 및 방법
WO2023229191A1 (ko) 비대면 질환 진단 방법 및 장치
WO2012115295A1 (ko) 생체 감성 지표 및 상황 정보로부터 생성된 학습 감성 지표에 기반하여 사용자의 학습 효과를 향상시키기 위한 유비쿼터스-러닝용 학습 효과 향상 장치
WO2012115294A1 (ko) 생체 감성 지표 및 상황 정보로부터 학습 집중도에 관련된 학습 감성 지표를 생성하기 위한 유비쿼터스-러닝용 미들웨어 장치
CA3066705A1 (en) Database construction method and database
WO2016006954A1 (ko) 소아건강관리 시스템 및 소아건강관리 방법
WO2021112317A1 (ko) 구강 내 미생물 분석장치를 이용한 건강 예측 시스템 및 방법
WO2019212180A1 (en) Method and apparatus for providing personalized healthcare advice
KR20220160131A (ko) 인공지능 기반의 vr 심리검사 서비스 제공 장치 및 방법
WO2021112377A1 (en) System and method for determining a likelihood of paradoxical vocal cord motion (pvcm) in a person
WO2023195554A1 (ko) 녹내장 위험도 진단 장치 및 방법
WO2022231069A1 (ko) 당화혈색소 수치 추정을 위한 인공지능학습 모델의 학습 방법 및 그 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23811968

Country of ref document: EP

Kind code of ref document: A1