WO2023043285A1 - 신경병증의 자가 진단 방법, 컴퓨터 프로그램 및 시스템 - Google Patents

신경병증의 자가 진단 방법, 컴퓨터 프로그램 및 시스템 Download PDF

Info

Publication number
WO2023043285A1
WO2023043285A1 PCT/KR2022/013928 KR2022013928W WO2023043285A1 WO 2023043285 A1 WO2023043285 A1 WO 2023043285A1 KR 2022013928 W KR2022013928 W KR 2022013928W WO 2023043285 A1 WO2023043285 A1 WO 2023043285A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
diagnosis
sensory
self
neuropathy
Prior art date
Application number
PCT/KR2022/013928
Other languages
English (en)
French (fr)
Inventor
문선재
Original Assignee
사회복지법인 삼성생명공익재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사회복지법인 삼성생명공익재단 filed Critical 사회복지법인 삼성생명공익재단
Publication of WO2023043285A1 publication Critical patent/WO2023043285A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • G16H70/20ICT specially adapted for the handling or processing of medical references relating to practices or guidelines

Definitions

  • the present invention relates to a method for self-diagnosis of neuropathy, a computer program, and a system, and more particularly, to a method for self-diagnosis of neuropathy using a smart pen, a computer program, and a system.
  • KCD Korean Standard Classification of Diseases
  • ICD International Classification of Diseases
  • peripheral neuropathy the most common neuropathy
  • diabetes is known to be the most common cause.
  • Diabetes complications are often asymptomatic in the early stages, and when symptoms are present, the complications are often already quite advanced. Therefore, timely examination of diabetic patients can be seen as the most important factor in preventing complications.
  • Chronic complications of diabetes are largely classified into microvascular complications and macrovascular complications, among which microvascular complications include neuropathy.
  • the most common of neuropathy is diabetic peripheral neuropathy, which can lead to serious complications such as foot ulcers and amputation, so accurate diagnosis and early diagnosis are essential.
  • diabetic neuropathy involves all nerves, including pain fibers, motor nerves, and autonomic nerves
  • clinical evaluation including sensory function, motor function, and autonomic function is required.
  • As a clinical sensory function evaluation method widely used for the diagnosis of diabetic peripheral neuropathy there are a pressure sensory test and a vibration sensory test using a specially designed tool for measuring neuropathy. Therefore, there is a limitation that diagnosis can be made only in an environment equipped with a specially designed tool.
  • this method has the advantage of being easily tested in the clinic, but has limitations in the method of expressing the degree of neuropathy and the reproducibility and reliability of the test results.
  • embodiments of the present invention use a smart pen and an application to control the neuropathy self-diagnosis method in which a user can easily and accurately self-diagnose diabetic neuropathy without the help of a medical professional. , to provide computer programs and systems.
  • a method for self-diagnosis of neuropathy includes receiving a selection signal for selecting an examination mode set differently according to a user performing a diagnosis service; Step of receiving target person information about personal information of the target person among the users; Generating guide data including body simulation data in which the subject information is reflected; obtaining sensory data for a part of the body simulation data according to the guide data using a measuring device; and generating diagnostic information by comparing the sensory data with a previously stored reference DB (database).
  • the body simulation data may be generated based on at least one of a photographed image of the subject and the subject information.
  • the generating of the guide data may include generating the body simulation data by reflecting the subject information with respect to the photographed image; and generating a first UI object for inducing measurement of the sensory data for at least a partial area of the body simulation data.
  • the obtaining of the sensory data may include receiving a target region selection signal for selecting a target region, which is a body region to be diagnosed with respect to the body simulation data, according to the provision of the first UI object from the user; and obtaining sensory data for the target region.
  • the obtaining of the sensory data may include: determining whether or not the sensory data was initially acquired, and outputting feedback data for inducing a user's subsequent operation by recognizing whether or not the sensory data was acquired; and obtaining final sensory data according to the subsequent operation according to the feedback data, wherein the feedback data includes a subsequent UI object reflecting the initial acquisition information of the sensory data, visual data for guiding a subsequent diagnostic operation, and auditory At least one of the data may be included.
  • the generating of the diagnostic information may include selecting a reference group corresponding to the subject information from among reference users stored in the reference DB; and comparing the sensory data with the sensory data of the reference group to generate diagnostic information diagnosing a degree of sensory nerve deterioration.
  • the generating of the guide data may include generating auditory data for inducing measurement of the sensory data for at least a partial region of the body simulation data or recognizing acquisition of the sensory data; Data may be output through a speaker unit provided in the measuring device.
  • the generating of the guide data includes generating visual data for inducing measurement of the sensory data for at least a partial area of the body simulation data or recognizing the acquisition of the sensory data; Data is output through a light emitting unit provided in the measurement device in the form of light emitting data, and the light emitting data differs in at least one of the type of light, the wavelength of light, and the amplitude of light output through the light emitting unit according to a diagnosis result of the sensory data.
  • a computer program according to an embodiment of the present invention may be stored in a recording medium in order to execute the method according to the above-described embodiments of the present invention using a computer.
  • a self-diagnosis system for neuropathy includes a diagnosis device; and a diagnosis server including a processor controlling the diagnosis device, wherein the processor receives a selection signal for selecting an examination mode set differently according to a user performing a diagnosis service, and receives personal information of a subject among the users.
  • Receiving information about the subject generating guide data including body simulation data in which the subject information is reflected, and acquiring sensory data for some parts of the body simulation data according to the guide data using a measuring device, Diagnostic information is generated by comparing the sensory data with a pre-stored reference DB (database).
  • the measuring device may include a photographing unit, and the body simulation data may be generated based on at least one of a photographed image of the subject using the photographing unit and the subject information.
  • the measuring device includes a speaker unit
  • the guide data includes auditory data for inducing measurement of the sensory data for at least a partial region of the body simulation data or recognizing acquisition of the sensory data
  • the speaker unit The auditory data may be output.
  • the measuring device includes a light emitting unit
  • the guide data includes visual data for inducing measurement of the sensory data for at least a partial area of the body simulation data or recognizing acquisition of the sensory data
  • the light emitting unit includes The visual data is output in the form of light emission data, and the light emission data may differ in at least one of a type of light, a wavelength of light, and an amplitude of light output through the light emitter according to a diagnosis result of the sensory data.
  • a user can easily self-diagnose diabetic neuropathy without the help of a medical professional by using a smart pen and an application that controls the smart pen, and based on the information, remote or medical treatment by a medical staff Early diagnosis can be made on the spot.
  • users can freely give feedback on the diagnosis system or form feedback and communities among users.
  • FIG. 1 is a diagram illustrating an example of a network environment in which a diagnostic system according to an embodiment of the present invention operates.
  • FIG. 2 is a diagram schematically illustrating the configuration of a diagnostic device according to an embodiment of the present invention.
  • FIG. 3 is a diagram showing some configurations of a configuration of a diagnostic system according to an embodiment of the present invention.
  • FIG. 4 is a configuration diagram showing a detailed configuration of a processor of a diagnosis server according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a diagnosis method and feedback according to an embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating some steps of a diagnosis method according to an embodiment of the present invention.
  • FIG. 7 is an exemplary view of an output screen generated by a diagnosis method according to an embodiment of the present invention.
  • FIG. 8 is a flowchart for explaining another example of some steps of a diagnosis method according to an embodiment of the present invention.
  • FIG. 9 is another exemplary view of an output screen generated by a diagnosis method according to an embodiment of the present invention for explaining some steps of feedback performed by a user.
  • 'sensory data' may be a concept including pressure data and vibration data.
  • FIG. 1 is a diagram illustrating an example of a network environment in which a self-diagnosis system for neuropathy (hereinafter, simply referred to as a 'diagnosis system') according to an embodiment of the present invention operates.
  • a 'diagnosis system' a self-diagnosis system for neuropathy
  • the diagnosis system of the present invention includes a self-diagnosis device for neuropathy (hereinafter referred to simply as 'diagnosis device') 100 and a self-diagnosis server for neuropathy (hereinafter referred to simply as 'diagnosis server') (200 ) may be included.
  • the diagnosis system of the present invention may further include a medical server 300 communicating with the diagnosis device 100 and the diagnosis server 200 through the network 400 .
  • the diagnostic device 100 communicates with the diagnostic server 200 and may provide a method for self-diagnosing neuropathy according to embodiments of the present invention.
  • the diagnosis apparatus 100 may include a plurality of devices, and an example thereof may include the user terminal 101 and a smart pen 102 that measures the degree of sensation of a subject who wants to be diagnosed with neuropathy.
  • the user terminal 101 may be a fixed terminal implemented as a computer device or a mobile terminal.
  • the user terminal 101 may be any type of terminal capable of wired or wireless communication with the smart pen 102 .
  • the user terminal 101 may be, for example, a TV, a smart phone, a mobile phone, a computer, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a tablet PC, etc., but is not limited thereto.
  • the user terminal 101 may include a photographing unit including a camera for capturing a subject to be diagnosed with neuropathy, a display unit providing the method for diagnosing neuropathy of the present invention, and a speaker unit. Depending on the embodiment, the speaker unit may be provided in the user terminal 101 or the smart pen 102 described later.
  • the smart pen 102 is a touch pen that can be implemented in various forms, and can be paired with the above-described user terminal 101 through wired or wireless communication.
  • sensory data for measuring the subject's sensory nerves may be obtained by contacting a body part of a subject to be diagnosed with neuropathy.
  • Sensory data through the smart pen 102 according to an embodiment of the present invention is transmitted to the diagnosis server 200, analyzed, and then transmitted to the smart pen 102 or transmitted to the user terminal 101, and the analysis results are obtained in various forms. can be output as data of The detailed configuration of the smart pen 102 will be described in more detail with reference to FIG. 2 to be described later.
  • the diagnosis server 200 may provide diagnosis contents related to a neuropathy diagnosis result for a subject and appropriate measures based on the result using the data obtained through the diagnosis device 100 of the present invention.
  • the diagnosis server 200 may provide a diagnosis method through which a user can easily obtain sensory nerve information, which is a basis for diagnosing a subject's neuropathy, by using the diagnosis apparatus 100.
  • the diagnostic server 200 may provide an application containing a program for providing the diagnostic method of the present invention to the user terminal 101 of the diagnostic device 100 .
  • the diagnosis server 200 may be implemented as a single module with the diagnosis device 100 .
  • the network 400 may play a role of mediating data transmission and reception between each component of the diagnosis system of the present invention.
  • a communication method between the diagnostic device 100, the diagnostic server 200, and different devices in the diagnostic device 100 group is not limited and may be a wired and/or wireless communication network.
  • the network 400 may include a wired network such as wired local area networks (LANs), wide area networks (WANs), metropolitan area networks (MANs), and integrated service digital networks (ISDNs), wireless Bluetooth, or zigbee. ), Wi-Fi (Wireless Fidelity), WiGig (Wireless Gigabit), beacons, wireless LANs, CDMA, and satellite communications.
  • LANs local area networks
  • WANs wide area networks
  • MANs metropolitan area networks
  • ISDNs integrated service digital networks
  • Wi-Fi Wireless Fidelity
  • WiGig WiGig
  • beacons wireless LANs
  • CDMA Code Division Multiple Access
  • the diagnosis system may communicate with the medical server 300 through the network 400 .
  • the medical server 300 is a hospital server that provides medical services, and can provide a necessary remote medical treatment service to a user based on a diagnosis result value generated through a method for diagnosing neuropathy according to an embodiment of the present invention. Content provision using the medical server 300 will be described in related drawings to be described later.
  • the diagnostic device 100 and the diagnostic server 200 are shown as being provided as separate components, but they are only functionally divided according to the operation performed by the diagnostic system of the present invention, and must be independently distinguished from each other. It is not, and may be implemented by integrating into one module as needed.
  • the diagnosis system may include other components not shown in the drawings.
  • FIG. 2 is a diagram schematically illustrating the configuration of a smart pen 102 of the diagnosis device 100 according to an embodiment of the present invention.
  • the smart pen 102 includes a pen housing 121 constituting the exterior of the pen, at least one button 122 provided in the pen housing 121, and one end of the housing 121. It may include a pen tip 123 provided. Depending on the embodiment, the smart pen 102 may further include a light emitting unit 124 including a light emitting element for outputting light emitting data of the present invention.
  • the pen housing 121 may have a long and thin body as a whole. Although an example of one button 122 provided on one side of the pen housing 121 is shown in this drawing, the location and number of buttons 122 are not limited thereto. Through the operation of the button 122, various operations set according to the diagnosis method according to an embodiment of the present invention can be performed.
  • the pen tip 123 may include a pressure element and/or a vibration element capable of acquiring sensory data at a predetermined point in time according to a user's manipulation in contact with a subject's body part.
  • the pressure element may be, for example, a 10 g monofilament
  • the vibration element may be, for example, a 128 Hz vibrator, but it is not limited thereto and any conventional pressure element or vibration element may be applied.
  • the pen tip 123 is shown protruding from the pen housing 121, but according to the embodiment, the pen tip 123 is hidden inside the pen housing 121 when not in use, When the upper part of the pen housing 121 is pressed according to the pen housing 121, it can operate in a form protruding out of the pen housing 121 like a ballpoint pen, and in some cases exists in a device separate from the pen housing 121 (eg, a personal terminal). It can be designed to be attached and detached while doing so.
  • the pen tip 123 is a general pressure element or a monofilament, sensory data may be obtained in the form of pressure data, and if the pen tip 123 is a vibration element, the sensory data may be obtained in the form of vibration data.
  • the light emitting unit 124 may include a light emitting device such as a light emitting diode (LED) and output light emitting data generated by the diagnostic method according to an embodiment of the present invention in a predetermined output form.
  • the light emitting element is not limited to the above-described LED, and various elements within a range capable of outputting light emitting data of the present invention may be applied.
  • the light emitting part 124 is shown as being disposed at the top of the pen housing 121, but the light emitting part 124 is located near the pen tip 123 at the bottom of the pen housing 121 or near the pen tip 123 itself. It may be disposed on, and the position of the light emitting unit 124 is not limited thereto. In another embodiment, the light emitting unit may also be provided in the aforementioned user terminal 101 .
  • the smart pen 102 of the present invention may include other configurations not shown in the drawings within the range in which the diagnosis method of the present invention can be easily implemented.
  • FIG. 3 is a diagram showing some configurations of a configuration of a diagnosis system according to an embodiment of the present invention.
  • the diagnosis device 100 and the diagnosis server 200 may include memories 110 and 210 , processors 120 and 220 , communication modules 130 and 230 , and input/output interfaces 140 and 240 .
  • the diagnosis device 100 of this drawing may be any one of the user terminal 101 and the smart pen 102 described above.
  • the memories 110 and 210 may temporarily or permanently store all kinds of data processed by each of the components 100 and 200 including the memories 110 and 210 .
  • the memories 110 and 210 may include a random access memory (RAM), a read only memory (ROM), and a permanent mass storage device such as a disk drive, but the present invention is not limited thereto.
  • the memories 110 and 210 store an operating system and at least one program code (for example, a code for a program installed in the user terminal 101 and self-diagnosing neuropathy through data transmission and reception with the diagnosis server 200). It can be.
  • the separate computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, a disk, a tape, a DVD/CD-ROM drive, and a memory card.
  • the software components may be loaded into the memory 110 or 120 through the communication module 130 or 230 rather than a computer-readable recording medium.
  • at least one program is a program installed by files provided by developers or a file distribution system (for example, the above-described diagnosis server 200) that distributes installation files of applications through the network 400. Based on this, it can be loaded into the memories 110 and 120 .
  • the processors 120 and 220 may perform an operation for overall controlling each component 100 and 200 including the memories 110 and 210 using various programs stored in the memories 110 and 210 .
  • Processors 112 and 212 may be configured to process commands of a computer program by performing basic arithmetic, logic, and input/output operations. Instructions may be provided to processors 120 and 220 by memories 110 and 210 or communication modules 130 and 230 .
  • the processors 120 and 220 may be configured to execute received instructions according to program codes stored in a recording device such as the memory 110 and 210 .
  • the communication modules 130 and 230 may provide a function for the diagnostic device 100 and the diagnostic server 200 to communicate with each other through the network 400, and may provide other devices (not shown) or other servers (not shown). It can provide functions to communicate with. For example, a request generated by the processor 120 of the diagnosis device 100 according to a program code stored in a recording device such as the memory 110 is sent to the diagnosis server ( 200) can be transmitted. Conversely, the communication module ( 130) to the diagnosis device 100.
  • the input/output interfaces 140 and 240 may be means for interface with the input/output device 150 .
  • the input device is, for example, a device constituting the outer shape of the aforementioned smart pen 102, or a device such as a keyboard or mouse
  • the output device is a display unit for displaying an image, a speaker unit for outputting auditory data, and light emission. It may be provided in the form of a device such as a light emitting unit that outputs data.
  • the input/output interfaces 140 and 240 may be means for interface with a device in which functions for input and output are integrated into one, such as a touch screen.
  • diagnosis device 100 and the diagnosis server 200 may include more components than those shown in FIG. 3 .
  • the processor 220 of the diagnosis server 200 may overall control the operation of the diagnosis server 200 and/or the diagnosis device 100 .
  • the processor 220 may generate guide data including body copy data reflecting the subject information after receiving a selection signal for selecting an examination mode set differently according to a user performing a diagnostic service and personal information of a subject. . Thereafter, sensory data for a part of the subject's body may be acquired according to the guide data using the measuring device 100, and diabetic neuropathy diagnosis information may be generated based on the acquired sensory data.
  • the operation of the processor 220 of the diagnosis server 200 will be described in detail in related drawings to be described later. Also, the operation of the processor 220 of the diagnosis server 200 may be implemented by the processor 120 of the diagnosis device 100 .
  • FIG. 4 is a configuration diagram showing a detailed configuration of the processor 220 of the diagnosis server 200 according to an embodiment of the present invention.
  • the processor 220 may include an input unit 221 , a guide generator 222 , a sensory data acquisition unit 223 and a diagnosis unit 224 .
  • the modules 221 to 224 are only functionally separated and do not necessarily have to be independently separated from each other. Of course, depending on the embodiment, they may be implemented as separate devices that are physically separated from each other.
  • the input unit 221 may receive a selection signal for selecting an examination mode set differently according to a user performing a diagnosis service. Also, among the users, target person information regarding personal information of the target person may be input.
  • 'user' is a concept that includes a subject (the patient himself) who wants to be diagnosed with neuropathy and another person (including a medical person or a non-medical person) who performs a test instead of the subject.
  • the guide generating unit 222 may generate guide data including body simulation data in which the subject information is reflected.
  • the body simulation data is data simulating a body including a target region, which is an object of neuropathy diagnosis of a subject, and may be visually displayed through the display unit of the user terminal 101 described above.
  • the sensory data acquisition unit 223 may acquire sensory data for a part of the body simulation data according to the guide data using the measuring device 100 of the present invention.
  • the above-described measuring device 100 of the present invention includes a photographing unit, and the body simulation data may be generated based on a photographed image of a target person using the photographing unit.
  • the guide data may include body simulation data generated by reflecting subject information on the captured image, and a UI object for inducing measurement of sensory data for at least a portion of the body simulation data.
  • the guide data of the present invention is not limited thereto and may include various types of UI data within the scope of easily performing the self-diagnosis of neuropathy of the present invention.
  • the guide data may further include auditory data and visual data using a light emitting unit in addition to the above-described body simulation data.
  • the auditory data is data for inducing measurement of the sensory data for at least a partial region of the body simulation data or for recognizing the acquisition of the sensory data, and may be output through a speaker included in the measurement device 100.
  • Visual data is also data for inducing measurement of the sensory data for at least a partial area of the body simulation data or recognizing the acquisition of the sensory data.
  • the visual data may be output in the form of light emission data through the light emitting unit 240 (refer to FIG. 2 ) provided in the measuring device 100 .
  • the light emitting data may differ in at least one of the type of light, the wavelength of light, and the amplitude of light output through the light emitting unit 240 according to the diagnosis result of the sensory data.
  • the sensory data acquisition unit 223 may receive a target region selection signal for selecting a target region, which is a body part to be diagnosed with respect to body simulation data, according to the provision of a UI object from a user who performs the test. Thereafter, sensory data for the target region may be obtained.
  • the sensory data obtaining unit 223 may determine whether the sensory data is initially acquired, and output feedback data for inducing a user's subsequent diagnosis operation by recognizing whether the sensory data has been obtained. Thereafter, final sensory data may be obtained according to the subsequent motion according to the feedback data.
  • the feedback data may include at least one of a subsequent UI object reflecting the initial acquisition information of the sensory data, and visual data and auditory data for guiding a subsequent diagnostic operation.
  • the diagnostic unit 224 may generate diagnostic information by comparing the sensory data with a pre-stored reference DB (database).
  • the diagnosis unit 224 selects a reference group corresponding to the subject information from among reference users stored in the reference DB, compares the final sensory data with the sensory data of the reference group, and generates diagnostic information for diagnosing the degree of sensory nerve deterioration. can do.
  • the reference DB may be stored in the aforementioned memories 110 and 210 .
  • FIG. 5 is a flowchart for explaining a method for self-diagnosis of neuropathy (hereinafter, simply referred to as a 'diagnosis method') according to an embodiment of the present invention.
  • the diagnosis method of the present invention includes steps described below and may be performed by the processor 220 described above.
  • a selection signal for selecting an examination mode set differently according to a user performing a diagnosis service is input.
  • the selection signal may be a selection signal for a UI object output to induce selection of an examination mode.
  • the examination mode may be set in various ways according to whether the user is a diagnosis subject and diagnosis possibility. For example, it may include a direct mode in which the user is the subject and an indirect mode in which the subject is other people other than the subject.
  • the mode may be further divided into a healthy population, a risk population, and a disease population mode. That is, this case can be divided into 6 modes of 2x3.
  • the processor 220 may also receive a selection signal for selecting whether the other person is a medical person or a non-medical person.
  • the inspection mode is not limited to the above.
  • step S200 subject information about the subject's personal information among the users is input.
  • the subject information may include at least one of age, sex, disease history, occupational history, and drug intake history of the subject, but is not limited thereto and may include various information about the subject.
  • Such subject information may be used as reference information for generating guide data for effective acquisition of sensory data and accurate diagnosis, which will be described later.
  • Steps S100 and S200 may be performed by the input unit 221 .
  • step S300 it is possible to generate guide data including body simulation data in which the subject information is reflected.
  • body simulation data may be generated based on a photographed image of a target subject using the measuring device 100 .
  • Step S300 may be performed by the guide generating unit 222 .
  • step S400 sensory data for some parts of the body simulation data may be acquired according to the above-described guide data using the measuring device 100 .
  • Step S400 may be performed by the sensory data acquisition unit 223 .
  • diagnostic information may be generated and provided by comparing with a pre-stored reference DB.
  • Step S500 may be performed by the diagnosis unit 224 .
  • a reference group corresponding to subject information may be selected from among a plurality of reference users stored in the reference DB. Thereafter, diagnosis information for diagnosing the degree of sensory nerve deterioration may be generated by comparing the final sensory data with the sensory data of the reference group. For example, among a plurality of reference users, a criterion group having the same or similar age, sex, and occupational group as the subject is selected, and the degree of sensory nerve deterioration in the same target region of the criterion group is compared with the degree of deterioration by the subject's final sensory data. relative diagnostic information can be generated and output. As another example, the diagnosis information may include absolute numerical information according to the final sensory data as well as the relative comparison data described above. At this time, the degree of sensory nerve deterioration may be expressed as a predetermined score (eg, T-score or Z-score as a clinical scale of peripheral neuropathy) and stored.
  • a predetermined score eg, T-score or Z-score as a clinical
  • the reference DB may be a DB related to the subject himself rather than a reference user other than the subject.
  • the diagnostic information is compared with the sensory data of the first time point and the sensory data of the second time point after the first time point according to the subject's measurement time point (measurement date or other time point within the same day) to obtain comparison data reflecting the sensory nerve change pattern.
  • a sensory map obtained by mapping final sensory data corresponding to each of the plurality of target regions may be included.
  • the sensory map may be in the form of a heat map reflecting final sensory data values.
  • the heat map outputs various information that can be expressed in color as visual graphics in the form of heat distribution on a certain image. In the present invention, it can be output in the form of a heat map on body simulation data that shapes a target area.
  • the feedback diagnosis information includes a message recommending the type of expected disease, appropriate prevention (health behavior), countermeasure, and/or visit to the hospital when the diagnosis information, such as numerical information calculated based on the sensory data, deviates from a predetermined standard. can do. If the predetermined criteria are exceeded, for example, the T-score is 2 points or more, or the sensory nerve state of the reference group is lowered by 95% or more, or the subject's sensory data measured at the first time point is lowered by 50% or more. , may be outside of a predetermined standard, and the like, but is not limited thereto.
  • the feedback diagnosis information may further include evaluation information provided by a user about the diagnosis system.
  • a user may provide evaluation information to the diagnosis system of the present disclosure, and the processor 220 may create a virtual space such as a bulletin board or community between users so that evaluation information may be exchanged between users.
  • the diagnosis service can be further improved by allowing users to freely give feedback on the diagnosis system or by forming feedback and a community among users.
  • FIG. 6 is a flowchart illustrating an example of steps S300 and S400 described above as some steps of a diagnosis method according to an embodiment of the present invention.
  • Generating guide data may be performed as steps described below.
  • Body simulation data is generated by reflecting subject information on the photographed image (S310). Thereafter, a first UI object for inducing measurement of sensory data for at least a partial region of the body simulation data may be created (S320). Thereafter, acquiring sensory data ( S400 ) may be performed as steps described below.
  • the processor 220 may receive a target region selection signal for selecting a target region, which is a body part to be diagnosed with respect to body simulation data, from the user according to the provision of the first UI object (S410). Thereafter, sensory data for the target region is acquired (S420).
  • the body simulation data may include first body simulation data, which is an image representing the entire body of a person, and second body simulation data generated based on a photographed image of a detailed target region.
  • FIG. 7 is an exemplary view of an output screen generated by a diagnosis method according to an embodiment of the present invention.
  • the output screen of FIG. 7 may be output to the display unit of the measuring device 100 .
  • an image recognizable as a human body is output as first body simulation data 71, and a user's selection signal is applied to each area that can be a target area among the first body simulation data 71.
  • the first UI object U1 that induces the input of may be output.
  • the first UI object U1 may be created on an extremity such as a hand or foot, which may be a diagnostic site for neuropathy, but is not limited thereto.
  • the first UI object U1 may be created in an enlarged form of a corresponding target area on the first body simulation data 71 .
  • second body simulation data 72 and 73 may be generated and output based on the captured image.
  • a user the subject himself/herself or another person
  • the processor 220 may generate second body simulation data 72 and 73 based on the subject's foot photographed image.
  • the second body simulation data 72 and 73 may be implemented as real images as they are, or may be implemented by 2D or 3D imaging so that only the shape of the captured image is revealed while the actual image of the captured image is covered.
  • the second body simulation data may be implemented in the form of a virtual reality (VR) image, but is not limited thereto and may be implemented in various forms within a range in which the target area of the subject can be easily recognized. .
  • VR virtual reality
  • the guide generating unit 223 may output a second UI object U2 representing sensory points within the corresponding target area on the second body simulation data 72 .
  • the second UI object U2 may be output for all sensory points that need to be measured for diagnosis of neuropathy.
  • the guide generation unit 223 may output a third UI object U3 indicating previously measured sensory points where sensory data measured in the past of the subject herself exist on the second body simulation data 73 .
  • the third UI object U3 may be output only to a partial area requiring remeasurement.
  • a user can easily perform self-diagnosis without the help of a medical professional through the output of guide data for a region in which acquisition of sensory data is required.
  • a self-diagnosis method tailored to the subject can be provided through the output of guide data reflecting past measurement records, and medical personnel can diagnose remotely.
  • Step S400 is a flowchart illustrating another example of step S400, which is a part of the diagnosis method according to an embodiment of the present invention.
  • Step S400 may include steps S430 and S440 to be described later.
  • step S430 it is determined whether the sensory data is initially acquired, and the user recognizes whether or not the sensory data has been acquired to output feedback data for inducing a subsequent motion of the user. Then, in step S440, final sensory data may be obtained according to the subsequent motion according to the feedback data.
  • the feedback data may include at least one of a subsequent UI object reflecting the initial acquisition information of the sensory data, and visual data and auditory data for guiding a subsequent diagnostic operation.
  • FIG. 9 is another exemplary view of an output screen generated by a diagnosis method according to an embodiment of the present invention.
  • the output screen of FIG. 9 may be output to the display unit of the measuring device 100 .
  • 'feedback data' may be a concept included in the aforementioned 'guide data'.
  • a subsequent UI object Uf is illustrated as an example of second body simulation data 72 and feedback data therefor.
  • the subsequent UI object Uf corresponds to a UI object representing a measurement state of sensory data for the target region, and indicates that sensory data is normally acquired according to the contact of the smart pen 102 .
  • the subsequent UI object Uf may express the degree of smearing according to the contact strength. For example, when the smart pen 102 is lightly contacted with the target area, it may be output in a weakly smudged form, and when strongly contacted, it may be output in a strongly smeared form. As such, it is possible to obtain accurate and effective sensory data through the output of feedback data during the diagnosis process of neuropathy, and through this, to perform accurate and easy self-diagnosis.
  • the feedback data may be data in the form of a UI object or auditory data asking whether or not the subject has a sense of stimulation using the smart pen 102 .
  • the processor 220 may receive a signal indicating that the subject has sensation from the user. This may be received in the form of a selection signal for a UI object or an input signal for a button 122 provided on the smart pen 102 .
  • sensory data pressure value or vibration value
  • at the time when a signal indicating that there is a sensation is received may be determined as final sensory data and used for diagnosis.
  • the guide generating unit 223 may induce measurement of sensory data for at least some areas of the body simulation data 71 , 72 , and 73 or generate auditory data to recognize the acquisition of sensory data. Auditory data may be output through a speaker included in the measurement device 100 . As a specific example of auditory data output, a message inducing measurement such as 'Please touch the smart pen to your index finger' before acquiring the initial sensory data, 'Please release the smart pen' after the initial acquisition, and 'The current pressure is 20 psi' It may be output in the form of a message, such as a message informing of a follow-up diagnosis operation such as a back, an intermediate acquired data value, or a message informing of a value of final sensory data for a target region. As another example, the auditory data may be output in the form of an alarm sound notifying a measurement state through a change in volume or output period.
  • the guide generating unit 223 may induce measurement of sensory data for at least some areas of the body simulation data 71, 72, and 73 or generate visual data to recognize acquisition of the sensory data.
  • Visual data may be output in the form of light emission data through the light emitting unit 124 (refer to FIG. 2 ) provided in the measurement device 100 .
  • the light emitting data may differ in at least one of the kind of light, the wavelength of light, and the amplitude of light output through the light emitting unit 124 according to the diagnosis result of the sensory data.
  • the type, wavelength (color), and amplitude of light emitted at various measurement points may be set differently.
  • red light may be emitted through the light emitting unit 124 before contacting the smart pen 102 to the target area
  • green light may be emitted during contact
  • blue light may be emitted after final sensory data is acquired.
  • light is not emitted through the light emitting unit 124 before contact, but during contact, red light is emitted as if flickering at a speed of a specific frequency, and after final acquisition, red light is flickered at a light emission speed lower than the light emission speed during contact. It may emit light or may not emit light again.
  • the output of the light emitting data is not limited to the above, and various design changes are possible within a range in which the user can easily and effectively recognize the measurement or acquisition state of the sensory data.
  • a user can easily and accurately self-diagnose diabetic neuropathy without the help of a medical professional by using a smart pen and an application that controls the smart pen, and a medical staff based on the information can be diagnosed remotely or at an early medical site.
  • a medical staff based on the information can be diagnosed remotely or at an early medical site.
  • objectification of symptoms and appropriateness of drug intervention can be quantitatively monitored.
  • users can freely give feedback on the diagnosis system or form feedback and communities among users.
  • diabetic neuropathy is common in the above-described embodiments of the present disclosure, diabetic neuropathy is only described as an example, and is not limited to the population or patients at risk of diabetic neuropathy and is not applied to all of the standard disease classifications. Of course, it can be applied to a population or patient at risk of neuropathy.
  • Embodiments according to the present invention described above may be implemented in the form of a computer program that can be executed on a computer through various components, and such a computer program may be recorded on a computer-readable medium.
  • the medium may store a program executable by a computer.
  • the medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, and ROM, RAM, flash memory, etc. configured to store program instructions.
  • the computer program may be specially designed and configured for the present invention, or may be known and usable to those skilled in the art of computer software.
  • An example of a computer program may include not only machine language code generated by a compiler but also high-level language code that can be executed by a computer using an interpreter or the like.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Anesthesiology (AREA)
  • Acoustics & Sound (AREA)
  • Psychology (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Hematology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Bioethics (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

본 발명의 일 실시예에 따른 신경병증의 자가 진단 방법은 진단 서비스를 수행하는 사용자에 따라 다르게 설정된 검사 모드를 선택하는 선택 신호를 입력 받는 단계; 상기 사용자 중 대상자의 개인정보에 관한 대상자 정보를 입력 받는 단계; 상기 대상자 정보가 반영된 신체 모사 데이터를 포함하는 가이드 데이터를 생성하는 단계; 측정 장치를 이용하여 상기 가이드 데이터에 따라 상기 신체 모사 데이터 중 일부 부위에 대한 감각 데이터를 획득하는 단계; 및 상기 감각 데이터를 기초로 미리 저장된 기준 DB와 비교하여 진단 정보를 생성하는 단계;를 포함한다.

Description

신경병증의 자가 진단 방법, 컴퓨터 프로그램 및 시스템
본 발명은 신경병증의 자가 진단 방법, 컴퓨터 프로그램 및 시스템에 관한 것으로, 더 상세하게는 스마트 펜을 이용한 신경병증의 자가 진단 방법, 컴퓨터 프로그램 및 시스템에 관한 것이다.
신경병증은 한국표준질병사인분류 (Korean Standard Classification of Diseases, KCD) 또는 세계표준질병사인분류 (International Classification of Disease, ICD)에 따르면 침범 신경 및 원인에 따라 수 백 가지로 다양하게 나타난다. 그 중 가장 흔한 신경병증은 말초신경병증 (peripheral neuropathy)이며 원인 질병은 당뇨병이 가장 흔한 것으로 알려져 있다. 당뇨병 합병증은 초기에는 대개 무증상인 경우가 많고 증상이 동반된 경우에는 이미 합병증이 상당히 진행된 경우가 많다. 따라서, 당뇨병 환자는 시의 적절한 검사의 시행이 합병증 예방에 있어 가장 중요한 요소로 볼 수 있다. 당뇨병의 만성합병증은 크게 미세혈관합병증과 대혈관합병증으로 구분되며, 그 중 미세혈관합병증은 신경병증을 포함한다. 특히 신경병 중 가장 흔한 것은 당뇨병성 말초신경병증으로서, 족부의 궤양과 절단과 같은 심각한 합병증까지 초래할 수 있어서 정확한 진단 및 초기 진단이 필수적이라 할 수 있다.
당뇨병성 신경병증(Diabetic Neuropathy)은 통증섬유, 운동신경, 자율신경 등 모든 신경을 포함하므로 감각기능, 운동기능 및 자율신경기능 등을 모두 포함하는 임상적 평가가 필요하다. 당뇨병성 말초신경병증의 진단을 위해 널리 사용되는 임상적 감각기능 평가 방법으로서, 신경병증 측정을 위해 특별히 고안된 도구를 이용한 압력감각 검사, 진동감각 검사 등이 있다. 따라서, 특별히 고안된 도구가 구비된 환경에서만 진단이 가능한 한계가 있다. 또한 해당 방법은 진료실에서 쉽게 검사할 수 있는 장점이 있으나 신경병증의 정도를 표현하는 방법과 검사결과의 재현성, 신뢰성에 제한이 있다.
전술한 문제점을 해결하기 위해, 본 발명의 실시 예들은 스마트 펜 및 이를 제어하는 어플리케이션을 이용하여 사용자가 전문 의료인의 도움이 없이도 당뇨병성 신경병증을 용이하고 정확하게 자가 진단할 수 있는 신경병증 자가 진단 방법, 컴퓨터 프로그램 및 시스템을 제공하고자 한다.
또한, 기존의 환자뿐만 아니라 발병 위험성이 있는 잠재적 환자들도 쉽게 자가 진단함으로써 당뇨병성 신경병증의 합병증의 예방 및 조기 진단의 가능성을 높힐 수 있는 신경병증 자가 진단 방법, 컴퓨터 프로그램 및 시스템을 제공하고자 한다.
그러나 이러한 과제는 예시적인 것으로 이에 의해 본 발명의 범위가 한정되는 것은 아니며, 당뇨병성 신경병증의 위험 인구나 환자에 국한 되어 적용되는 것은 아니며 표준질병사인분류 상의 모든 신경병증 위험 인구나 환자에 적용될 수 있다.
본 발명의 일 실시 예에 따른 신경병증의 자가 진단 방법은 진단 서비스를 수행하는 사용자에 따라 다르게 설정된 검사 모드를 선택하는 선택 신호를 입력 받는 단계; 상기 사용자 중 대상자의 개인정보에 관한 대상자 정보를 입력 받는 단계; 상기 대상자 정보가 반영된 신체 모사 데이터를 포함하는 가이드 데이터를 생성하는 단계; 측정 장치를 이용하여 상기 가이드 데이터에 따라 상기 신체 모사 데이터 중 일부 부위에 대한 감각 데이터를 획득하는 단계; 및 상기 감각 데이터를 기초로 미리 저장된 기준 DB(database)와 비교하여 진단 정보를 생성하는 단계;를 포함한다.
상기 신체 모사 데이터는 상기 대상자를 촬영한 촬영 영상 및 상기 대상자 정보 중 적어도 하나를 기초로 생성될 수 있다.
상기 가이드 데이터를 생성하는 단계는, 상기 촬영 영상에 대하여 상기 대상자 정보를 반영하여 상기 신체 모사 데이터를 생성하는 단계; 및 상기 신체 모사 데이터의 적어도 일부 영역에 대한 상기 감각 데이터의 측정을 유도하는 제1 UI 객체를 생성하는 단계;를 포함할 수 있다.
상기 감각 데이터를 획득하는 단계는, 상기 사용자로부터 상기 제1 UI 객체의 제공에 따라 상기 신체 모사 데이터에 대하여 진단 받고자 하는 신체 부위인 대상 영역을 선택하는 대상 영역 선택 신호를 수신하는 단계; 및 상기 대상 영역에 대한 감각 데이터를 획득하는 단계;를 포함할 수 있다.
상기 감각 데이터를 획득하는 단계는, 상기 감각 데이터의 초기 획득 여부를 판단하고, 사용자가 상기 획득 여부를 인지하여 사용자의 후속 동작을 유도하는 피드백 데이터를 출력하는 단계; 및 상기 피드백 데이터에 따른 상기 후속 동작에 따라 최종 감각 데이터를 획득하는 단계;를 포함하고, 상기 피드백 데이터는 상기 감각 데이터의 초기 획득 정보가 반영된 후속 UI 객체, 후속 진단 동작을 가이드하는 시각 데이터 및 청각 데이터 중 적어도 하나를 포함할 수 있다.
상기 진단 정보를 생성하는 단계는, 상기 기준 DB에 저장된 기준 사용자 중 상기 대상자 정보에 대응하는 기준 그룹을 선택하는 단계; 및 상기 감각 데이터와 상기 기준 그룹의 감각 데이터를 비교하여 감각신경 저하 정도를 진단한 진단 정보를 생성하는 단계;를 포함할 수 있다.
상기 가이드 데이터를 생성하는 단계는, 상기 신체 모사 데이터의 적어도 일부 영역에 대한 상기 감각 데이터의 측정을 유도하거나 상기 감각 데이터의 획득을 인지시키기 위한, 청각 데이터를 생성하는 단계;를 포함하고, 상기 청각 데이터는 상기 측정 장치에 구비되는 스피커부를 통해 출력될 수 있다.
상기 가이드 데이터를 생성하는 단계는, 상기 신체 모사 데이터의 적어도 일부 영역에 대한 상기 감각 데이터의 측정을 유도하거나 상기 감각 데이터의 획득을 인지시키기 위한, 시각 데이터를 생성하는 단계;를 포함하고, 상기 시각 데이터는 발광 데이터의 형태로 상기 측정 장치에 구비되는 발광부를 통해 출력되고, 상기 발광 데이터는 상기 감각 데이터의 진단 결과에 따라 상기 발광부를 통해 출력되는 광의 종류, 광의 파장 및 광의 진폭 중 적어도 하나가 다를 수 있다.
본 발명의 일 실시예에 따른 컴퓨터 프로그램은 컴퓨터를 이용하여 전술한 본 발명의 실시예들에 따른 방법을 실행시키기 위하여 기록매체에 저장될 수 있다.
본 발명의 일 실시예에 따른 신경병증의 자가 진단 시스템은 진단 장치; 및 상기 진단 장치를 제어하는 프로세서를 포함하는 진단 서버;를 포함하고, 상기 프로세서는, 진단 서비스를 수행하는 사용자에 따라 다르게 설정된 검사 모드를 선택하는 선택 신호를 입력 받고, 상기 사용자 중 대상자의 개인정보에 관한 대상자 정보를 입력 받고, 상기 대상자 정보가 반영된 신체 모사 데이터를 포함하는 가이드 데이터를 생성하고, 측정 장치를 이용하여 상기 가이드 데이터에 따라 상기 신체 모사 데이터 중 일부 부위에 대한 감각 데이터를 획득하고, 상기 감각 데이터를 기초로 미리 저장된 기준 DB(database)와 비교하여 진단 정보를 생성한다.
상기 측정 장치는 촬영부를 포함하고, 상기 신체 모사 데이터는 상기 촬영부를 이용하여 상기 대상자를 촬영한 촬영 영상 및 상기 대상자 정보 중 적어도 하나를 기초로 생성될 수 있다.
상기 측정 장치는 스피커부를 포함하고, 상기 가이드 데이터는, 상기 신체 모사 데이터의 적어도 일부 영역에 대한 상기 감각 데이터의 측정을 유도하거나 상기 감각 데이터의 획득을 인지시키기 위한 청각 데이터를 포함하고, 상기 스피커부는 상기 청각 데이터를 출력할 수 있다.
상기 측정 장치는 발광부를 포함하고, 상기 가이드 데이터는, 상기 신체 모사 데이터의 적어도 일부 영역에 대한 상기 감각 데이터의 측정을 유도하거나 상기 감각 데이터의 획득을 인지시키기 위한 시각 데이터를 포함하고, 상기 발광부는 상기 시각 데이터를 발광 데이터의 형태로 출력하되, 상기 발광 데이터는 상기 감각 데이터의 진단 결과에 따라 상기 발광부를 통해 출력되는 광의 종류, 광의 파장 및 광의 진폭 중 적어도 하나가 다를 수 있다.
본 발명의 실시예들에 따르면, 스마트 펜 및 이를 제어하는 어플리케이션을 이용하여 사용자가 전문 의료인의 도움이 없이도 당뇨병성 신경병증을 용이하게 자가 진단할 수 있으며 해당 정보를 바탕으로 의료진에 의해 원격 또는 의료 현장에서 조기 진단될 수 있다.
또한, 기존 의료 기관에서 진단 받은 신경병증의 환자의 경우는 증상에 대한 객관화 및 약물 중재의 적절성을 정량적으로 모니터링 할 수 있다.
또한, 기존의 환자뿐만 아니라 발병 위험성이 있는 잠재적 환자들도 쉽게 자가 진단함으로써 당뇨병성 신경병증의 합병증의 예방 및 조기 진단의 가능성을 높일 수 있다.
또한, 사용자가 진단 시스템에 대해 자유롭게 피드백하거나 사용자 간에 피드백 및 커뮤니티 등을 형성할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 진단 시스템이 동작하는 네트워크 환경의 예를 도시한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 진단 장치의 구성을 개략적으로 도시한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 진단 시스템의 구성의 일부 구성을 도시한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 진단 서버의 프로세서의 세부 구성을 도시한 구성도이다.
도 5는 본 발명의 일 실시 예에 따른 진단 방법 및 피드백을 설명하기 위한 순서도이다.
도 6은 본 발명의 일 실시 예에 따른 진단 방법의 일부 단계를 설명하기 위한 순서도이다.
도 7은 본 발명의 일 실시 예에 따른 진단 방법에 의해 생성되는 출력 화면의 일 예시도이다.
도 8은 본 발명의 일 실시 예에 따른 진단 방법의 일부 단계의 다른 예시를 설명하기 위한 순서도이다.
도 9는 사용자가 시행하는 피드백의 일부 단계를 설명하기 위한 본 발명의 일 실시 예에 따른 진단 방법에 의해 생성되는 출력 화면의 다른 예시도이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 형태는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.
이하, '감각 데이터'는 압력 데이터 및 진동 데이터를 포함하는 개념일 수 있다.
도 1은 본 발명의 일 실시예에 따른 신경병증의 자가 진단 시스템(이하, '진단 시스템'으로 간략히 지칭한다.)이 동작하는 네트워크 환경의 예를 도시한 도면이다.
본 발명의 진단 시스템은 신경병증의 자가 진단 장치(이하, '진단 장치'로 간략히 지칭한다.)(100) 및 신경병증의 자가 진단 서버(이하, '진단 서버'로 간략히 지칭한다.)(200)를 포함할 수 있다. 실시예에 따라서 본 발명의 진단 시스템은 상기 진단 장치(100) 및 진단 서버(200)와 네트워크(400)를 통해 통신하는 의료 서버(300)를 더 포함할 수 있다. 진단 장치(100)는 진단 서버(200)와 통신하며 본 발명의 실시예들에 따른 신경병증 자가 진단 방법을 제공할 수 있다.
진단 장치(100)는 복수의 기기를 포함할 수 있는데 그 일 예로 사용자 단말(101) 및 신경병증을 진단받고자 하는 대상자의 감각 정도를 측정하는 스마트 펜(102)을 포함할 수 있다.
사용자 단말(101)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 사용자 단말(101)은 스마트 펜(102)과 유선 또는 무선 통신이 가능한 모든 종류의 단말일 수 있다. 사용자 단말(101)은 예를 들어 TV, 스마트폰, 휴대폰, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등일 수 있으나, 이에 한정되지 않는다. 사용자 단말(101)은 신경병증의 진단 대상이 되는 대상자를 촬영하는 카메라를 포함하는 촬영부, 본 발명의 신경병증 진단 방법을 제공하는 디스플레이부 및 스피커부를 포함할 수 있다. 실시예에 따라서, 스피커부는 사용자 단말(101) 또는 후술하는 스마트 펜(102)에 구비될 수 있다.
스마트 펜(102)은 다양한 형태로 구현될 수 있는 터치 펜으로서, 상술한 사용자 단말(101)과 유선 또는 무선 통신을 통해 페어링될 수 있다. 스마트 펜(102)을 통해 신경병증의 진단 대상이 되는 대상자의 일 신체 부위에 접촉되어 대상자의 감각신경을 측정하기 위한 감각 데이터를 획득할 수 있다. 본 발명의 일 실시예에 따른 스마트 펜(102)을 통한 감각 데이터는 진단 서버(200)로 전송, 분석되어 다시 스마트 펜(102)으로 전송되거나 사용자 단말(101)로 전송되어 분석 결과가 다양한 형태의 데이터로 출력될 수 있다. 스마트 펜(102)의 세부 구성에 관하여는 후술하는 도 2를 통해 더 상세히 설명한다.
진단 서버(200)는 본 발명의 진단 장치(100)를 통해 획득한 데이터를 이용하여 대상자에 대한 신경병증 진단 결과 및 이에 따른 적절한 조치에 관한 진단 컨텐츠를 제공할 수 있다. 또한, 진단 서버(200)는 진단 장치(100)로 사용자가 진단 장치(100)를 이용하여 대상자의 신경병증 진단의 기초가 되는 감각신경 정보를 용이하게 획득할 수 있는 진단 방법을 제공할 수 있다. 일 예로, 진단 서버(200)는 진단 장치(100) 중 사용자 단말(101)로 본 발명의 진단 방법을 제공하는 프로그램을 내장하는 어플리케이션을 제공할 수 있다. 실시예에 따라서, 진단 서버(200)는 진단 장치(100)와 하나의 모듈로서 구현될 수도 있다.
네트워크(400)는 본 발명의 진단 시스템의 각 구성 간의 데이터 송수신을 매개하는 역할을 수행할 수 있다. 진단 장치(100), 진단 서버(200) 및 진단 장치(100) 그룹 내의 서로 다른 기기 간의 통신 방식은 제한되지 않으며, 유선 및/또는 무선 통신망일 수 있다. 가령 네트워크(400)는 유선 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 블루투스(bluetooth), 지그비(zigbee), 와이파이(Wi-Fi, Wireless Fidelity), 와이기그(WiGig, Wireless Gigabit), 비콘(beacon), 무선 LANs, CDMA, 위성 통신 등의 무선 네트워크를 망라할 수 있다. 그러나, 네트워크(400)는 이에 한정되지 않고 종래의 모든 무선 또는 유선 통신 방법이 적용될 수 있다.
실시예에 따라서, 본 발명의 일 실시예에 따른 진단 시스템은 의료 서버(300)와도 네트워크(400)를 통해 통신할 수 있다. 의료 서버(300)는 의료 서비스를 제공하는 병원 서버로서, 사용자에게 본 발명의 일 실시예에 따른 신경병증 진단 방법을 통해 생성된 진단 결과 값을 기초로 필요한 원격 진료 서비스를 제공할 수 있다. 의료 서버(300)를 이용한 컨텐츠 제공에 관하여는 후술하는 관련 도면에서 설명한다.
본 도면에서는 진단 장치(100)와 진단 서버(200)를 별개의 구성으로 구비되는 것으로 도시하였으나, 본 발명의 진단 시스템에 의해 수행되는 동작에 따라 기능적으로 구분한 것일 뿐 반드시 서로 독립적으로 구분되어야 하는 것은 아니며, 필요에 따라 하나의 모듈로 통합하여 구현될 수도 있다. 실시예에 따라서 진단 시스템은 본 도면에 도시되지 않은 다른 구성을 포함할 수도 있음은 물론이다.
도 2는 본 발명의 일 실시예에 따른 진단 장치(100) 중 스마트 펜(102)의 구성을 개략적으로 도시한 도면이다.
본 발명의 일 실시예에 따른 스마트 펜(102)은 펜의 외형을 구성하는 펜 하우징(121), 펜 하우징(121)에 구비된 적어도 하나의 버튼(122) 및 하우징(121)의 일 단부에 구비되는 펜 팁(123)을 포함할 수 있다. 실시예에 따라서 스마트 펜(102)은 본 발명의 발광 데이터를 출력하기 위한 발광 소자를 포함하는 발광부(124)를 더 포함할 수 있다.
펜 하우징(121)은 전체적으로 가늘고 긴 형상의 몸체를 가질 수 있다. 버튼(122)은 본 도면에는 펜 하우징(121)의 일 측에 한 개가 구비된 예시를 도시하였으나, 버튼(122)의 위치 및 개수는 이에 한정되지 않는다. 버튼(122)의 동작을 통해 본 발명의 일 실시예에 따른 진단 방법에 따라 설정된 다양한 동작을 수행할 수 있다.
펜 팁(123)은 대상자의 신체 부위에 접촉되어 사용자의 조작에 따라 소정의 시점의 감각 데이터를 획득할 수 있는 압력 소자 및/또는 진동 소자를 포함할 수 있다. 상기 압력 소자는 일 예로 10g 모노필라멘트일 수 있고, 상기 진동 소자는 일 예로 128 Hz 진동자일 수 있으나, 이에 한정되지 않고 종래의 압력 소자 또는 진동 소자가 모두 적용될 수도 있음은 물론이다. 본 도면에서 펜 팁(123)이 펜 하우징(121)으로부터 돌출된 모습을 도시하였으나, 실시예에 따라서 펜 팁(123)이 미사용시에는 펜 하우징(121)의 내부에 숨겨져 있다가 사용자의 조작에 따라 펜 하우징(121)의 상단부를 누르게 되면 볼펜처럼 펜 하우징(121)의 외부로 돌출되는 형태로 동작할 수 있으며 경우에 따라서는 펜 하우징(121)과 별개의 장치 (예: 개인 단말기)에 존재하고 있다가 부착 및 탈착이 가능하게 설계 할 수도 있다. 펜 팁(123)이 일반 압력 소자 또는 모노필라멘트인 경우 감각 데이터는 압력 데이터의 형태로 획득되고, 펜 팁(123)이 진동 소자인 경우 감각 데이터는 진동 데이터의 형태로 획득될 수 있다.
발광부(124)는 발광 다이오드(Light Emitting Diode; LED) 등의 발광 소자를 포함하여, 본 발명의 일 실시예에 따른 진단 방법에 의해 생성된 발광 데이터를 소정의 출력 형태로 출력할 수 있다. 발광 소자는 상술한 LED에 한정되지 않고, 본 발명의 발광 데이터를 출력할 수 있는 범위 내의 다양한 소자가 적용될 수 있다. 본 도면에서 발광부(124)는 펜 하우징(121)의 상단에 배치되는 것으로 도시하였으나, 발광부(124)는 펜 하우징(121)의 하단에서 펜 팁(123) 부근 또는 펜 팁(123) 자체에 배치될 수도 있으며, 발광부(124)에 위치는 이에 한정되지 않는다. 다른 실시예로, 발광부는 전술한 사용자 단말(101)에도 구비될 수 있다.
실시예에 따라서 본 발명의 스마트 펜(102)은 본 발명의 진단 방법을 용이하게 구현할 수 있는 범위 내에서 본 도면에 도시되지 않은 다른 구성을 포함할 수도 있음은 물론이다.
도 3은 본 발명의 일 실시예에 따른 진단 시스템의 구성의 일부 구성을 도시한 도면이다.
진단 장치(100) 및 진단 서버(200)는 메모리(110, 210), 프로세서(120, 220), 통신 모듈(130, 230) 및 입출력 인터페이스(140, 240)를 포함할 수 있다. 본 도면의 진단 장치(100)는 전술한 사용자 단말(101) 및 스마트 펜(102) 중 어느 하나일 수 있다.
메모리(110, 210)는 각 메모리(110, 210)를 구비하는 각 구성(100, 200)이 처리하는 모든 종류의 데이터를 일시적 또는 영구적으로 저장할 수 있다. 메모리(110, 210)는 RAM(Random Access Memory), ROM(Read Only Memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(Permanent Mass Storage Device)를 포함할 수 있으나, 본 발명이 이에 한정되는 것은 아니다. 또한, 메모리(110, 210)에는 운영체제와 적어도 하나의 프로그램 코드(일례로 사용자 단말(101)에 설치되어 진단 서버(200)와 데이터 송수신을 통하여 신경병증을 자가 진단하는 프로그램을 위한 코드)가 저장될 수 있다.
이러한 소프트웨어 구성요소들은 드라이브 메커니즘(Drive Mechanism)을 이용하여 메모리(110, 120)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체를 포함할 수 있다. 실시예에 따라서, 상기 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 통신 모듈(130, 230)을 통해 메모리(110, 120)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로 상술한 진단 서버(200))이 네트워크(400)를 통해 제공하는 파일들에 의해 설치되는 프로그램에 기반하여 메모리(110, 120)에 로딩될 수 있다.
프로세서(120, 220)는 메모리(110, 210)에 저장된 각종 프로그램을 이용하여 각 메모리(110, 210)를 구비하는 각 구성(100, 200)을 전반적으로 제어하는 동작을 수행할 수 있다. 프로세서(112, 212)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(110, 210) 또는 통신 모듈(130, 230)에 의해 프로세서(120, 220)로 제공될 수 있다. 예를 들어 프로세서(120, 220)는 메모리(110, 210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 모듈(130, 230)은 네트워크(400)를 통해 진단 장치(100)와 진단 버(200)가 서로 통신하기 위한 기능을 제공할 수 있으며, 다른 장치(미도시) 또는 다른 서버(미도시)와 통신하기 위한 기능을 제공할 수 있다. 일례로, 진단 장치(100)의 프로세서(120)가 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(130)의 제어에 따라 네트워크(400)를 통해 진단 서버(200)로 전달될 수 있다. 역으로, 진단 서버(200)의 프로세서(220)의 제어에 따라 제공되는 제어 신호나 명령, 콘텐츠, 파일 등이 통신 모듈(230)과 네트워크(400)를 거쳐 진단 장치(100)의 통신 모듈(130)을 통해 진단 장치(100)로 수신될 수 있다.
입출력 인터페이스(140, 240)는 입출력 장치(150)와의 인터페이스를 위한 수단일 수 있다. 이때 입력 장치는 예를 들어 전술한 스마트 펜(102)의 외형을 이루는 장치, 또는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 이미지를 표시하기 위한 디스플레이부, 청각 데이터를 출력하는 스피커부 및 발광 데이터를 출력하는 발광부와 같은 장치의 형태로 구비될 수 있다. 다른 예로 입출력 인터페이스(140, 240)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다.
또한, 다른 실시예들에서 진단 장치(100) 및 진단 서버(200)는 도 3에 도시된 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다.
진단 서버(200)의 프로세서(220)는 진단 서버(200) 및/또는 진단 장치(100)의 동작을 전반적으로 제어할 수 있다. 프로세서(220)는 진단 서비스를 수행하는 사용자에 따라 다르게 설정된 검사 모드를 선택하는 선택 신호 및 대상자의 개인정보를 입력 받은 후, 상기 대상자 정보가 반영된 신체 모사 데이터를 포함하는 가이드 데이터를 생성할 수 있다. 이후, 측정 장치(100)를 이용하여 상기 가이드 데이터에 따라 대상자의 신체의 일부 부위에 대한 감각 데이터를 획득하고, 이를 기초로 당뇨병성 신경병증 진단 정보를 생성할 수 있다. 진단 서버(200)의 프로세서(220)의 동작에 관하여는 후술하는 관련 도면들에서 더 상세히 설명한다. 또한, 진단 서버(200)의 프로세서(220)의 동작은 진단 장치(100)의 프로세서(120)에 의해 구현될 수도 있다.
도 4는 본 발명의 일 실시예에 따른 진단 서버(200)의 프로세서(220)의 세부 구성을 도시한 구성도이다.
프로세서(220)는 입력부(221), 가이드 생성부(222), 감각 데이터 획득부(223) 및 진단부(224)를 포함할 수 있다. 상기 모듈들(221 내지 224)은 기능적으로 구분한 것일 뿐, 반드시 서로 독립적으로 구분되어야 하는 것이 아니다. 물론, 실시예에 따라서는 이들은 서로 물리적으로 구분되는 별개의 장치로 구현되는 것도 가능하다.
입력부(221)는 진단 서비스를 수행하는 사용자에 따라 다르게 설정된 검사 모드를 선택하는 선택 신호를 입력 받을 수 있다. 그리고, 상기 사용자 중 대상자의 개인정보에 관한 대상자 정보를 입력 받을 수 있다. 이하, 본 명세서에서 '사용자'라 함은 신경병증을 진단 받고자 하는 대상자(환자 본인) 및 대상자가 아닌 검사를 대신 수행해주는 타인(의료인 또는 비의료인 포함)을 포함하는 개념이다.
가이드 생성부(222)는 상기 대상자 정보가 반영된 신체 모사 데이터를 포함하는 가이드 데이터를 생성할 수 있다. 신체 모사 데이터는 대상자의 신경병증 진단의 대상이 되는 대상 영역을 포함한 신체를 모사한 데이터로서, 전술한 사용자 단말(101)의 디스플레이부를 통해 시각적으로 표시될 수 있다.
감각 데이터 획득부(223)는 본 발명의 측정 장치(100)를 이용하여 상기 가이드 데이터에 따라 상기 신체 모사 데이터 중 일부 부위에 대한 감각 데이터를 획득할 수 있다. 한편, 전술한 본 발명의 측정 장치(100)는 촬영부를 포함하고, 상기 신체 모사 데이터는 상기 촬영부를 이용하여 대상자를 촬영한 촬영 영상을 기초로 생성될 수 있다.
가령, 가이드 데이터는, 상기 촬영 영상에 대하여 대상자 정보를 반영하여 생성된 신체 모사 데이터와, 상기 신체 모사 데이터의 적어도 일부 영역에 대한 감각 데이터의 측정을 유도하는 UI 객체 등을 포함할 수 있다. 본 발명의 가이드 데이터는 이에 한정되지 않고 본 발명의 신경병증 자가 진단을 용이하게 수행할 수 있는 범위 내의 다양한 UI 형태의 데이터를 포함할 수 있다.
실시예에 따라서 상기 가이드 데이터는 상술한 신체 모사 데이터 외에 청각 데이터 및 발광부를 이용한 시각 데이터를 더 포함할 수 있다. 청각 데이터는 상기 신체 모사 데이터의 적어도 일부 영역에 대한 상기 감각 데이터의 측정을 유도하거나 상기 감각 데이터의 획득을 인지시키기 위한 데이터로서, 측정 장치(100)에 구비되는 스피커부를 통해 출력될 수 있다. 시각 데이터 또한 상기 신체 모사 데이터의 적어도 일부 영역에 대한 상기 감각 데이터의 측정을 유도하거나 상기 감각 데이터의 획득을 인지시키기 위한 데이터이다. 상기 시각 데이터는 발광 데이터의 형태로 측정 장치(100)에 구비되는 발광부(240)(도 2 참고)를 통해 출력될 수 있다. 이때 발광 데이터는 상기 감각 데이터의 진단 결과에 따라 발광부(240)를 통해 출력되는 광의 종류, 광의 파장 및 광의 진폭 중 적어도 하나가 다를 수 있다.
감각 데이터 획득부(223)는 검사 수행자인 사용자로부터 UI 객체의 제공에 따라 신체 모사 데이터에 대하여 진단 받고자 하는 신체 부위인 대상 영역을 선택하는 대상 영역 선택 신호를 수신할 수 있다. 이후, 상기 대상 영역에 대한 감각 데이터를 획득할 수 있다.
다른 실시예로, 감각 데이터 획득부(223)는 상기 감각 데이터의 초기 획득 여부를 판단하고, 사용자가 상기 획득 여부를 인지하여 사용자의 후속 진단 동작을 유도하는 피드백 데이터를 출력할 수 있다. 이후, 상기 피드백 데이터에 따른 상기 후속 동작에 따라 최종 감각 데이터를 획득할 수 있다. 이때 피드백 데이터는 상기 감각 데이터의 초기 획득 정보가 반영된 후속 UI 객체, 후속 진단 동작을 가이드하는 시각 데이터 및 청각 데이터 중 적어도 하나를 포함할 수 있다.
진단부(224)는 상기 감각 데이터를 기초로 미리 저장된 기준 DB(database)와 비교하여 진단 정보를 생성할 수 있다. 진단부(224)는 기준 DB에 저장된 기준 사용자 중 상기 대상자 정보에 대응하는 기준 그룹을 선택하고, 상기 최종 감각 데이터와 상기 기준 그룹의 감각 데이터를 비교하여 감각신경 저하 정도를 진단한 진단 정보를 생성할 수 있다. 기준 DB는 상술한 메모리(110, 210)에 저장될 수 있다.
도 5는 본 발명의 일 실시예에 따른 신경병증의 자가 진단 방법(이하, '진단 방법'으로 간략히 지칭한다.)을 설명하기 위한 순서도이다. 본 발명의 진단 방법은 후술하는 단계들을 포함하고, 상술한 프로세서(220)에 의해 수행될 수 있다.
S100 단계에서, 진단 서비스를 수행하는 사용자에 따라 다르게 설정된 검사 모드를 선택하는 선택 신호를 입력 받는다. 이때 상기 선택 신호는 검사 모드의 선택을 유도하도록 출력된 UI 객체에 대한 선택 신호일 수 있다. 본 발명에서 검사 모드는 사용자가 진단 대상자인지 여부와 진단 가능성에 따라 다양하게 설정될 수 있다. 예컨대, 상기 사용자가 상기 대상자 본인인 직접 모드 및 상기 대상자 본인이 아닌 타인인 간접 모드를 포함할 수 있다. 또한 직접 모드 및 간접 모드 각각에서 대상자의 말초신경병증 진단 가능성에 따라 건강 인구, 위험 인구 및 질병 인구 모드로 또 나뉠 수 있다. 즉, 이 경우는 2x3의 6개의 모드로 나뉠 수 있다. 나아가 간접 모드에서는 사용자가 타인이므로 프로세서(220)는 타인이 의료인 또는 비의료인인지를 선택하는 선택 신호도 입력 받을 수 있다. 검사 모드는 상술한 바에 한정되지 않는다.
S200 단계에서, 상기 사용자 중 대상자의 개인정보에 관한 대상자 정보를 입력 받는다. 상기 대상자 정보는 대상자의 연령, 성별, 질환력, 직업력 및 약물 복용 내역 중 적어도 하나를 포함할 수 있고, 그러나 이에 한정되지 않고 대상자에 관한 다양한 정보를 포함할 수 있다. 이러한 대상자 정보는 후술하는 감각 데이터의 효과적인 획득 및 정확한 진단을 위해 가이드 데이터 생성 등에 참고 정보로 활용될 수 있다. S100, S200 단계는 입력부(221)에 의해 수행될 수 있다.
S300 단계에서, 상기 대상자 정보가 반영된 신체 모사 데이터를 포함하는 가이드 데이터를 생성할 수 있다. 일 예로, 신체 모사 데이터는 측정 장치(100)를 이용하여 대상자를 촬영한 촬영 영상을 기초로 생성될 수 있다. S300 단계는 가이드 생성부(222)에 의해 수행될 수 있다.
S400 단계에서, 측정 장치(100)를 이용하여 상술한 가이드 데이터에 따라 신체 모사 데이터 중 일부 부위에 대한 감각 데이터를 획득할 수 있다. S400 단계는 감각 데이터 획득부(223)에 의해 수행될 수 있다.
상기 S300의 가이드 데이터의 출력 및 이에 따른 S400 단계의 감각 데이터 획득의 구체적인 예시에 관하여는 후술하는 도 6 내지 도 8을 통해 더 상세히 설명한다.
S500 단계에서 획득된 감각 데이터를 기초로 미리 저장된 기준 DB와 비교하여 진단 정보를 생성 및 제공할 수 있다. S500 단계는 진단부(224)에 의해 수행될 수 있다.
S500 단계의 일 예로서, 기준 DB에 저장된 복수의 기준 사용자 중 대상자 정보에 대응하는 기준 그룹을 선택할 수 있다. 이후, 상기 최종 감각 데이터와 상기 기준 그룹의 감각 데이터를 비교하여 감각신경 저하 정도를 진단한 진단 정보를 생성할 수 있다. 예컨대, 복수의 기준 사용자 중 대상자와 연령, 성별, 직업군이 동일 또는 유사한 기준 그룹을 선택하고, 해당 기준 그룹의 동일한 대상 영역에 대한 감각신경 저하 정도와 대상자의 최종 감각 데이터에 의한 저하 정도를 비교하여 상대적인 진단 정보를 생성 및 출력할 수 있다. 다른 예로, 진단 정보는 상술한 상대적인 비교 데이터뿐만 아니라 최종 감각 데이터에 따른 절대적인 수치 정보도 포함할 수 있다. 이때 감각신경 저하 정도는 소정의 점수(예컨대, 말초신경병증의 임상 척도로서 T-score 또는 Z-score)로 표현되어 저장될 수 있다.
다른 예로서, 기준 DB는 대상자 외의 기준 사용자가 아닌 대상자 본인에 관한 DB일 수 있다. 이때 진단 정보는 대상자의 측정 시점(측정 일자 또는 동일자 내의 다른 시점)에 따라, 제1 시점의 감각 데이터와 제1 시점 이후의 제2 시점의 감각 데이터를 비교하여 감각신경 변화 양상을 반영한 비교 데이터를 포함할 수도 있다.
본 발명의 진단 정보의 다른 예로서, 대상 영역이 복수 개인 경우 상기 복수 개의 대상 영역 각각에 대응하는 최종 감각 데이터를 맵핑하여 표현한 감각 맵을 포함할 수 있다. 상기 감각 맵은 최종 감각 데이터의 수치를 반영한 히트 맵(heat map)의 형태일 수 있다. 히트 맵은 색상으로 표현할 수 있는 다양한 정보를 일정한 이미지 위에 열 분포 형태의 비쥬얼한 그래픽으로 출력하는 것으로서, 본 발명에서는 대상 영역을 형상화한 신체 모사 데이터 상에 히트 맵의 형태로 출력될 수 있다.
실시예에 따라서, 상기 진단 정보를 생성하는 단계 이후에 상기 진단 정보를 기초로 생성된 '피드백 진단 정보'를 더 제공할 수 있다. 피드백 진단 정보란 상기 감각 데이터를 기초로 산출된 수치 정보 등의 진단 정보가 소정의 기준을 벗어나는 경우 예상되는 질병의 종류, 적절한 예방(건강 행동), 대처법 및/또는 병원 내원을 권고하는 메시지를 포함할 수 있다. 상기 소정의 기준을 벗어나는 경우는, 예컨대 T-score가 2점 이상, 또는 기준 그룹의 감각신경 상태보다 95% 이상 저하, 또는 대상자 본인의 제1 시점에 측정한 감각 데이터 대비 50% 이상 저하되는 등, 미리 정해진 기준을 벗어나는 경우 등일 수 있으며, 이에 한정되지 않는다.
다른 실시예로, 상기 피드백 진단 정보는 사용자가 진단 시스템에 대하여 제공하는 평가 정보를 더 포함할 수 있다. 이때 사용자가 본 개시의 진단 시스템에 평가 정보를 제공할 수도 있고, 프로세서(220)는 사용자 간 게시판이나 커뮤니티 같은 가상 공간을 만들어 사용자 간에 평가 정보를 주고 받을 수 있도록 할 수도 있다. 이와 같이, 사용자가 진단 시스템에 대해 자유롭게 피드백하거나 사용자 간에 피드백 및 커뮤니티 등을 형성하여 진단 서비스를 더 개선할 수 있다.
도 6은 본 발명의 일 실시예에 따른 진단 방법의 일부 단계로서, 상술한 S300, S400 단계의 일 예시를 설명하기 위한 순서도이다.
가이드 데이터를 생성하는 단계(S300)는 후술하는 단계들로 수행될 수 있다. 촬영 영상에 대하여 대상자 정보를 반영하여 신체 모사 데이터를 생성한다 (S310). 이후, 상기 신체 모사 데이터의 적어도 일부 영역에 대한 감각 데이터의 측정을 유도하는 제1 UI 객체를 생성할 수 있다 (S320). 이후, 감각 데이터를 획득하는 단계(S400)는 후술하는 단계들로 수행될 수 있다. 프로세서(220)는 사용자로부터 상기 제1 UI 객체의 제공에 따라 신체 모사 데이터에 대하여 진단 받고자 하는 신체 부위인 대상 영역을 선택하는 대상 영역 선택 신호를 수신할 수 있다 (S410). 이후, 상기 대상 영역에 대한 감각 데이터를 획득한다 (S420). 신체 모사 데이터는 사람의 신체 전체를 나타내는 이미지인 제1 신체 모사 데이터, 및 이에 대하여 세부 대상 영역에 대한 촬영 영상을 기초로 생성된 제2 신체 모사 데이터를 포함할 수 있다.
여기서, 도 7을 함께 참조하여 상술한 예시를 구체적으로 설명한다. 도 7은 본 발명의 일 실시예에 따른 진단 방법에 의해 생성되는 출력 화면의 일 예시도이다. 도 7의 출력 화면은 측정 장치(100)의 디스플레이부에 출력될 수 있다.
도 7을 참조하면, 제1 신체 모사 데이터(71)로서 사람의 신체임을 알아볼 수 있는 이미지가 출력되고, 상기 제1 신체 모사 데이터(71) 중 대상 영역이 될 수 있는 영역 각각에 사용자의 선택 신호의 입력을 유도하는 제1 UI 객체(U1)가 출력될 수 있다. 제1 UI 객체(U1)는 도 7에 도시된 바와 같이, 신경병증의 진단 부위가 될 수 있는 손이나 발 등의 말단 부위 상에 생성될 수 있으나, 이에 한정되지 않는다. 제1 UI 객체(U1)는 제1 신체 모사 데이터(71) 상에서 해당 대상 영역이 확대된 형태로 생성될 수도 있다.
이후, 선택된 제1 UI 객체(71)에 대응하는 대상 영역에 대하여, 촬영 영상을 기초로 제2 신체 모사 데이터(72, 73)를 생성 및 출력할 수 있다. 예컨대, 사용자(대상자 본인 또는 타인)는 측정 장치(100)의 촬영부(카메라 등)를 이용하여 선택된 제1 UI 객체(71)에 대응하는 대상 영역을 촬영할 수 있다. 대상자의 발을 촬영한 경우 프로세서(220)는 대상자의 발 촬영 영상을 기초로 제2 신체 모사 데이터(72, 73)를 생성할 수 있다. 이때 제2 신체 모사 데이터(72, 73)는 촬영 영상 그대로의 실제 이미지로 구현될 수도 있고, 촬영 영상의 실제 이미지는 가리고 그 형태만이 드러나도록 2D 또는 3D 이미지화하여 구현될 수도 있다. 다른 예로 제2 신체 모사 데이터는 가상 현실(Virtual Reality; VR) 영상의 형태로 구현될 수도 있으며, 이에 한정되지 않고 대상자의 대상 영역을 용이하게 인식할 수 있는 범위 내에서 다양한 형태로 구현될 수 있다.
가이드 생성부(223)는 제2 신체 모사 데이터(72) 상에 대응하는 대상 영역 내의 감각점들을 나타내는 제2 UI 객체(U2)를 출력할 수 있다. 제2 UI 객체(U2)는 신경병증의 진단을 위해 측정이 필요한 모든 감각점에 대하여 출력될 수 있다. 또는, 가이드 생성부(223)는 제2 신체 모사 데이터(73) 상에 대상자 본인의 과거 측정된 감각 데이터가 존재하는 기측정 감각점들을 나타내는 제3 UI 객체(U3)를 출력할 수 있다. 제3 UI 객체(U3)는 73에 도시된 바와 같이 재측정이 필요한 일부 영역에만 출력될 수 있다. 이와 같이, 본 발명의 실시예들에 따르면 감각 데이터의 획득이 필요한 영역에 대한 가이드 데이터의 출력을 통하여 사용자가 전문 의료인의 도움이 없이도 쉽게 자가 진단할 수 있다. 또한, 과거 측정 기록을 반영한 가이드 데이터의 출력을 통해 대상자 맞춤형 자가 진단 방법을 제공할 수 있으며 원격으로 의료인이 진단할 수도 있다.
도 8은 본 발명의 일 실시예에 따른 진단 방법의 일부 단계인 S400 단계의 다른 예시를 설명하기 위한 순서도이다. S400 단계는 후술하는 S430, S440 단계를 포함할 수 있다.
S430 단계에서, 상기 감각 데이터의 초기 획득 여부를 판단하고, 사용자가 상기 획득 여부를 인지하여 사용자의 후속 동작을 유도하는 피드백 데이터를 출력할 수 있다. 이후, S440 단계에서 피드백 데이터에 따른 상기 후속 동작에 따라 최종 감각 데이터를 획득할 수 있다. 이때 피드백 데이터는 상기 감각 데이터의 초기 획득 정보가 반영된 후속 UI 객체, 후속 진단 동작을 가이드하는 시각 데이터 및 청각 데이터 중 적어도 하나를 포함할 수 있다.
여기서, 도 9를 함께 참조하여 상술한 예시를 구체적으로 설명한다. 도 9는 본 발명의 일 실시예에 따른 진단 방법에 의해 생성되는 출력 화면의 다른 예시도이다. 도 9의 출력 화면은 측정 장치(100)의 디스플레이부에 출력될 수 있다. 이하, '피드백 데이터'는 상술한 '가이드 데이터'에 포함되는 개념일 수 있다.
도 9를 참조하면, 제2 신체 모사 데이터(72) 및 이에 대한 피드백 데이터의 일 예시로서 후속 UI 객체(Uf)가 도시되어 있다. 후속 UI 객체(Uf)는 대상 영역에 대한 감각 데이터의 측정 상태를 나타내는 UI 객체에 해당하는 것으로서, 스마트 펜(102)의 접촉에 따라 감각 데이터가 정상적으로 획득되고 있음을 나타내고 있다. 후속 UI 객체(Uf)는 접촉 강도에 따른 번짐 정도를 표현할 수 있다. 예컨대, 스마트 펜(102)이 대상 영역에 약하게 접촉되는 경우 약하게 번지는 형태로 출력되고, 강하게 접촉되는 경우 강하게 번지는 형태로 출력될 수 있다. 이와 같이, 신경병증의 진단 과정 중 피드백 데이터의 출력을 통해 정확하고 효과적인 감각 데이터의 획득 및 이를 통한 정확하고 용이한 자가 진단이 가능하다.
다른 예로, 피드백 데이터는 UI 객체 또는 청각 데이터의 형태로 대상자가 스마트 펜(102)을 이용한 자극에 대하여 감각이 있는지 여부를 질문하는 데이터일 수 있다. 이후, 프로세서(220)는 사용자로부터 대상자가 감각이 있음을 알리는 신호를 수신할 수 있다. 이는 UI 객체에 대한 선택 신호 또는 스마트 펜(102)에 구비된 버튼(122)에 대한 입력 신호 등의 형태로 수신될 수 있다. 이후, 감각이 있음을 알리는 신호가 수신된 시점의 감각 데이터(압력 값 또는 진동 값)를 최종 감각 데이터로 결정하여 진단에 활용할 수 있다.
이하, 전술한 S300 및 S400 단계에서 활용될 수 있는 본 발명의 가이드 데이터 및 피드백 데이터의 다른 실시예들에 관하여 설명한다. 여기서 전술한 도 7을 함께 참조하여 설명한다.
가이드 생성부(223)는 신체 모사 데이터(71, 72, 73)의 적어도 일부 영역에 대한 감각 데이터의 측정을 유도하거나 감각 데이터의 획득을 인지시키기 위한, 청각 데이터를 생성할 수 있다. 청각 데이터는 측정 장치(100)에 구비되는 스피커부를 통해 출력될 수 있다. 청각 데이터 출력의 구체적인 예로서, 초기 감각 데이터의 획득 전에 '검지 손가락에 스마트 펜을 접촉해주세요' 등의 측정을 유도하는 메시지, 초기 획득 후에 '스마트 펜을 떼 주세요', '현재 압력은 20psi 입니다' 등의 후속 진단 동작이나 중간 획득 데이터 값을 알려주는 메시지, 또는 대상 영역에 대한 최종 감각 데이터의 수치를 알려주는 메시지 등 메시지 형태로 출력될 수 있다. 다른 예로서, 청각 데이터는 소리의 크기나 출력 주기의 변화 등을 통해 측정 상태를 알리는 경보음 등의 형태로 출력될 수도 있다.
한편, 가이드 생성부(223)는 신체 모사 데이터(71, 72, 73)의 적어도 일부 영역에 대한 감각 데이터의 측정을 유도하거나 상기 감각 데이터의 획득을 인지시키기 위한, 시각 데이터를 생성할 수 있다. 시각 데이터는 발광 데이터의 형태로 상기 측정 장치(100)에 구비되는 발광부(124)(도 2 참고)를 통해 출력될 수 있다. 이때 발광 데이터는 감각 데이터의 진단 결과에 따라 발광부(124)를 통해 출력되는 광의 종류, 광의 파장 및 광의 진폭 중 적어도 하나가 다를 수 있다.
발광 데이터 출력의 구체적인 예로서, 감각 데이터의 획득 전, 획득 중, 획득 후 등 다양한 측정 시점에서 발광되는 빛의 종류, 파장(색깔) 및 진폭이 달리 설정될 수 있다. 가령, 대상 영역에 스마트 펜(102)을 접촉하기 전에는 발광부(124)를 통해 적색광이 발광되고, 접촉 중에는 녹색광이 발광되며, 최종 감각 데이터의 획득 후에는 청색광이 발광될 수 있다. 또는 접촉 전에는 발광부(124)를 통해 빛이 발광되지 않다가, 접촉 중에는 특정 주파수의 속도로 적색광이 깜빡 거리듯 발광하고, 최종 획득 후에는 접촉 중의 발광 속도보다 낮은 발광 속도로 적색광이 깜빡 거리듯 발광하거나 또는 다시 빛이 발광되지 않을 수 있다. 발광 데이터의 출력은 상술한 바에 한정되지 않고, 사용자가 감각 데이터의 측정 또는 획득 상태를 용이하고 효과적으로 인식할 수 있는 범위 내에서 다양한 설계 변경이 가능하다.
이와 같이, 본 발명의 실시예들에 따르면, 스마트 펜 및 이를 제어하는 어플리케이션을 이용하여 사용자가 전문 의료인의 도움이 없이도 당뇨병성 신경병증을 용이하고 정확하게 자가 진단할 수 있으며, 해당 정보를 바탕으로 의료진에 의해 원격 또는 의료 현장에서 조기 진단될 수 있다. 또한, 기존 의료 기관에서 진단 받은 신경병증의 환자의 경우는 증상에 대한 객관화 및 약물 중재의 적절성을 정량적으로 모니터링 할 수 있다. 뿐만 아니라, 사용자가 진단 시스템에 대해 자유롭게 피드백하거나 사용자 간에 피드백 및 커뮤니티 등을 형성할 수 있다.
또한, 기존의 환자뿐만 아니라 발병 위험성이 있는 잠재적 환자들도 쉽게 자가 진단함으로써 당뇨병성 신경병증의 합병증의 예방 및 조기 진단의 가능성을 높힐 수 있다. 그러나 상술한 본 개시의 실시 예들은 당뇨병성 신경병증이 흔하기 때문에 당뇨병성 신경병증을 예시로 들어 설명한 것일 뿐, 당뇨병성 신경병증의 위험 인구나 환자에 국한 되어 적용되는 것이 아니며 표준질병사인분류 상의 모든 신경병증 위험 인구나 환자에 적용될 수 있음은 물론이다.
이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 저장하는 것일 수 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
따라서, 본 발명의 사상은 앞에서 설명된 실시예들에 국한하여 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위가 본 발명의 사상의 범주에 속한다고 할 것이다.
100: 진단 장치
101: 사용자 단말
102: 스마트 펜
123: 펜 팁
124: 발광부
200: 진단 서버
220: 프로세서
61, 62, 63: 신체 모사 데이터
U1, U2, U3: UI 객체
Uf: 후속 UI 객체

Claims (13)

  1. 자가 진단 서버가, 진단 서비스를 수행하는 사용자에 따라 다르게 설정된 검사 모드를 선택하는 선택 신호를 입력 받는 단계;
    상기 자가 진단 서버가, 상기 사용자 중 대상자의 개인정보에 관한 대상자 정보를 입력 받는 단계;
    상기 자가 진단 서버가, 상기 대상자 정보가 반영된 신체 모사 데이터를 포함하는 가이드 데이터를 생성하는 단계;
    상기 자가 진단 서버가, 측정 장치를 이용하여 상기 가이드 데이터에 따라 상기 신체 모사 데이터 중 일부 부위에 대한 감각 데이터를 획득하는 단계; 및
    상기 자가 진단 서버가, 상기 감각 데이터를 기초로 미리 저장된 기준 DB(database)와 비교하여 진단 정보를 생성하는 단계;를 포함하는, 신경병증의 자가 진단 방법.
  2. 제1항에 있어서,
    상기 신체 모사 데이터는 상기 대상자를 촬영한 촬영 영상 및 상기 대상자 정보 중 적어도 하나를 기초로 생성되는, 신경병증의 자가 진단 방법.
  3. 제2항에 있어서,
    상기 가이드 데이터를 생성하는 단계는,
    상기 촬영 영상에 대하여 상기 대상자 정보를 반영하여 상기 신체 모사 데이터를 생성하는 단계; 및
    상기 신체 모사 데이터의 적어도 일부 영역에 대한 상기 감각 데이터의 측정을 유도하는 제1 UI 객체를 생성하는 단계;를 포함하는, 신경병증의 자가 진단 방법.
  4. 제3항에 있어서,
    상기 감각 데이터를 획득하는 단계는,
    상기 사용자로부터 상기 제1 UI 객체의 제공에 따라 상기 신체 모사 데이터에 대하여 진단 받고자 하는 신체 부위인 대상 영역을 선택하는 대상 영역 선택 신호를 수신하는 단계; 및
    상기 대상 영역에 대한 감각 데이터를 획득하는 단계;를 포함하는, 신경병증의 자가 진단 방법.
  5. 제2항에 있어서,
    상기 감각 데이터를 획득하는 단계는,
    상기 감각 데이터의 초기 획득 여부를 판단하고, 사용자가 상기 획득 여부를 인지하여 사용자의 후속 동작을 유도하는 피드백 데이터를 출력하는 단계; 및
    상기 피드백 데이터에 따른 상기 후속 동작에 따라 최종 감각 데이터를 획득하는 단계;를 포함하고,
    상기 피드백 데이터는 상기 감각 데이터의 초기 획득 정보가 반영된 후속 UI 객체, 후속 진단 동작을 가이드하는 시각 데이터 및 청각 데이터 중 적어도 하나를 포함하는, 신경병증의 자가 진단 방법.
  6. 제2항에 있어서,
    상기 진단 정보를 생성하는 단계는,
    상기 기준 DB에 저장된 기준 사용자 중 상기 대상자 정보에 대응하는 기준 그룹을 선택하는 단계; 및
    상기 감각 데이터와 상기 기준 그룹의 감각 데이터를 비교하여 감각신경 저하 정도를 진단한 진단 정보를 생성하는 단계;를 포함하는, 신경병증의 자가 진단 방법.
  7. 제1항에 있어서,
    상기 가이드 데이터를 생성하는 단계는,
    상기 신체 모사 데이터의 적어도 일부 영역에 대한 상기 감각 데이터의 측정을 유도하거나 상기 감각 데이터의 획득을 인지시키기 위한, 청각 데이터를 생성하는 단계;를 포함하고,
    상기 청각 데이터는 상기 측정 장치에 구비되는 스피커부를 통해 출력되는, 신경병증의 자가 진단 방법.
  8. 제1항에 있어서,
    상기 가이드 데이터를 생성하는 단계는,
    상기 신체 모사 데이터의 적어도 일부 영역에 대한 상기 감각 데이터의 측정을 유도하거나 상기 감각 데이터의 획득을 인지시키기 위한, 시각 데이터를 생성하는 단계;를 포함하고,
    상기 시각 데이터는 발광 데이터의 형태로 상기 측정 장치에 구비되는 발광부를 통해 출력되고, 상기 발광 데이터는 상기 감각 데이터의 진단 결과에 따라 상기 발광부를 통해 출력되는 광의 종류, 광의 파장 및 광의 진폭 중 적어도 하나가 다른, 신경병증의 자가 진단 방법.
  9. 컴퓨터를 이용하여 제1항 내지 제8항 중 어느 한 항의 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램.
  10. 진단 장치; 및
    상기 진단 장치를 제어하는 프로세서를 포함하는 진단 서버;를 포함하고, 상기 프로세서는,
    진단 서비스를 수행하는 사용자에 따라 다르게 설정된 검사 모드를 선택하는 선택 신호를 입력 받고,
    상기 사용자 중 대상자의 개인정보에 관한 대상자 정보를 입력 받고,
    상기 대상자 정보가 반영된 신체 모사 데이터를 포함하는 가이드 데이터를 생성하고,
    측정 장치를 이용하여 상기 가이드 데이터에 따라 상기 신체 모사 데이터 중 일부 부위에 대한 감각 데이터를 획득하고,
    상기 감각 데이터를 기초로 미리 저장된 기준 DB(database)와 비교하여 진단 정보를 생성하는, 신경병증의 자가 진단 시스템.
  11. 제10항에 있어서,
    상기 측정 장치는 촬영부를 포함하고,
    상기 신체 모사 데이터는 상기 촬영부를 이용하여 상기 대상자를 촬영한 촬영 영상 및 상기 대상자 정보 중 적어도 하나를 기초로 생성되는, 신경병증의 자가 진단 시스템.
  12. 제10항에 있어서,
    상기 측정 장치는 스피커부를 포함하고,
    상기 가이드 데이터는, 상기 신체 모사 데이터의 적어도 일부 영역에 대한 상기 감각 데이터의 측정을 유도하거나 상기 감각 데이터의 획득을 인지시키기 위한 청각 데이터를 포함하고,
    상기 스피커부는 상기 청각 데이터를 출력하는, 신경병증의 자가 진단 시스템.
  13. 제10항에 있어서,
    상기 측정 장치는 발광부를 포함하고,
    상기 가이드 데이터는, 상기 신체 모사 데이터의 적어도 일부 영역에 대한 상기 감각 데이터의 측정을 유도하거나 상기 감각 데이터의 획득을 인지시키기 위한 시각 데이터를 포함하고,
    상기 발광부는 상기 시각 데이터를 발광 데이터의 형태로 출력하되, 상기 발광 데이터는 상기 감각 데이터의 진단 결과에 따라 상기 발광부를 통해 출력되는 광의 종류, 광의 파장 및 광의 진폭 중 적어도 하나가 다른, 신경병증의 자가 진단 시스템.
PCT/KR2022/013928 2021-09-17 2022-09-19 신경병증의 자가 진단 방법, 컴퓨터 프로그램 및 시스템 WO2023043285A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0125220 2021-09-17
KR1020210125220A KR20230041507A (ko) 2021-09-17 2021-09-17 신경병증의 자가 진단 방법, 컴퓨터 프로그램 및 시스템

Publications (1)

Publication Number Publication Date
WO2023043285A1 true WO2023043285A1 (ko) 2023-03-23

Family

ID=85603301

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/013928 WO2023043285A1 (ko) 2021-09-17 2022-09-19 신경병증의 자가 진단 방법, 컴퓨터 프로그램 및 시스템

Country Status (2)

Country Link
KR (1) KR20230041507A (ko)
WO (1) WO2023043285A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015163210A (ja) * 2015-04-14 2015-09-10 国立研究開発法人産業技術総合研究所 皮膚感覚の評価装置、および皮膚感覚の評価方法
KR20190014245A (ko) * 2017-07-31 2019-02-12 주식회사 자이언소프트 가상신체 구현 시스템
KR20190029628A (ko) * 2017-09-09 2019-03-20 애플 인크. 생체측정 인증의 구현
KR20190057368A (ko) * 2016-09-30 2019-05-28 이사르-엠 게엠베하 수술 후 출혈의 조기 감지 시스템
KR20200097447A (ko) * 2019-02-08 2020-08-19 아프릴리스 주식회사 당뇨병성 말초신경병증 진단용 장치, 및 이를 이용한 당뇨병 합병증 관리 시스템 및 관리 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015163210A (ja) * 2015-04-14 2015-09-10 国立研究開発法人産業技術総合研究所 皮膚感覚の評価装置、および皮膚感覚の評価方法
KR20190057368A (ko) * 2016-09-30 2019-05-28 이사르-엠 게엠베하 수술 후 출혈의 조기 감지 시스템
KR20190014245A (ko) * 2017-07-31 2019-02-12 주식회사 자이언소프트 가상신체 구현 시스템
KR20190029628A (ko) * 2017-09-09 2019-03-20 애플 인크. 생체측정 인증의 구현
KR20200097447A (ko) * 2019-02-08 2020-08-19 아프릴리스 주식회사 당뇨병성 말초신경병증 진단용 장치, 및 이를 이용한 당뇨병 합병증 관리 시스템 및 관리 방법

Also Published As

Publication number Publication date
KR20230041507A (ko) 2023-03-24

Similar Documents

Publication Publication Date Title
US8388529B2 (en) Differential diagnosis of neuropsychiatric conditions
US9483613B2 (en) Determination of neuropsychiatric therapy mechanisms of action
Honaker The equivalency of computerized and conventional MMPI administration: A critical review
WO2020251217A1 (ko) 사용자 맞춤형 피부 진단 시스템 및 방법
WO2021045367A1 (ko) 상담 대상자의 드로잉 과정을 통해 심리 상태를 판단하는 방법 및 컴퓨터 프로그램
JP2006235929A (ja) 健康診断管理装置
WO2021040373A1 (ko) 복합적 스트레스 지수에 기반한 스트레스 관리 방법
RU2319444C1 (ru) Способ психологического анализа и устройство для его реализации (варианты)
JPH069541B2 (ja) 視野測定装置
WO2021034138A1 (ko) 치매 평가 방법 및 이를 이용한 장치
WO2020032562A2 (ko) 생체 이미지 진단 시스템, 생체 이미지 진단 방법, 및 이를 수행하기 위한 단말
Woźniacka et al. Artificial intelligence in medicine and dermatology
WO2020036207A1 (ja) 医療用情報処理システム、医療用情報処理装置、および医療用情報処理方法
WO2023043285A1 (ko) 신경병증의 자가 진단 방법, 컴퓨터 프로그램 및 시스템
US20190130077A1 (en) Sensor system and method for cognitive health assessment
WO2023113285A1 (ko) 신체 영상의 관리 방법 및 이를 이용한 장치
WO2023106555A1 (ko) 등록된 확장현실 기기 사용자의 집중도를 관리 및 제어하는 방법, 장치 및 시스템
WO2020091086A1 (ko) 피부진단방법, 피부진단장치 및 기록매체
WO2023121051A1 (ko) 환자 정보 제공 방법, 환자 정보 제공 장치, 및 컴퓨터 판독 가능한 기록 매체
WO2023013959A1 (ko) 아밀로이드 베타 축적 예측 장치 및 방법
WO2022108004A1 (ko) 정신 질환 진단 프로토콜 자동 탐색을 위한 컴퓨터 시스템 및 그의 방법
WO2021141186A1 (ko) 멀티형 인지재활 훈련 시스템 및 방법
KR20220160131A (ko) 인공지능 기반의 vr 심리검사 서비스 제공 장치 및 방법
KR20210144208A (ko) 증강현실 기반 인지재활 훈련 시스템 및 방법
WO2024117566A1 (ko) 인지 재활 훈련의 자동화 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22870367

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE