WO2022158737A1 - Disease diagnosis device and method - Google Patents

Disease diagnosis device and method Download PDF

Info

Publication number
WO2022158737A1
WO2022158737A1 PCT/KR2021/019901 KR2021019901W WO2022158737A1 WO 2022158737 A1 WO2022158737 A1 WO 2022158737A1 KR 2021019901 W KR2021019901 W KR 2021019901W WO 2022158737 A1 WO2022158737 A1 WO 2022158737A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
disease
landmark
frame
diagnosing
Prior art date
Application number
PCT/KR2021/019901
Other languages
French (fr)
Korean (ko)
Inventor
이민식
한경민
이태호
박상영
Original Assignee
한양대학교 에리카산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210142543A external-priority patent/KR20220106026A/en
Application filed by 한양대학교 에리카산학협력단 filed Critical 한양대학교 에리카산학협력단
Publication of WO2022158737A1 publication Critical patent/WO2022158737A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present embodiments provide an apparatus and method for diagnosing a disease.
  • geriatric diseases can be determined through direct diagnosis between a doctor and a patient. Specifically, in the diagnosis of geriatric disease, the doctor instructs the patient to test various protocols, and at this time, the doctor and the patient can There are physical limitations that must be faced and the problem of imbalance in medical supply.
  • the present embodiments provide an apparatus and method for diagnosing a disease capable of comprehensively diagnosing a disease from a plurality of image data from which a diagnostic protocol image is captured when diagnosing a visually distinguishable disease.
  • an apparatus for diagnosing a disease a plurality of image data obtained by continuously photographing a user's posture is collected, A reference information acquisition unit for acquiring reference information, a characteristic information extraction unit for extracting characteristic information for each landmark by applying an analysis module to landmark coordinate information for reference information extracted from each image data, and characteristic information for each landmark
  • a disease diagnosis apparatus comprising a disease diagnosis unit for generating fusion characteristic information by concatenating and diagnosing a disease based on the integrated characteristic information.
  • a method for diagnosing a disease a plurality of image data obtained by continuously photographing a user's posture is collected, and reference information is obtained for obtaining preset reference information on a specific body part for each collected image data.
  • a feature information extraction step of extracting feature information for each landmark by applying an analysis module to landmark coordinate information for reference information extracted from each image data, and a fusion by concatenating feature information for each landmark ) generating characteristic information and providing a disease diagnosis method comprising a disease diagnosis step of diagnosing a disease based on the integrated characteristic information.
  • an apparatus and method for diagnosing a disease that can comprehensively diagnose a disease from a plurality of video data from which a diagnostic protocol image is captured when diagnosing a visually distinguishable disease.
  • FIG. 1 is a diagram illustrating a configuration of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
  • FIG. 2 is a flowchart illustrating an operation of diagnosing a disease of the apparatus for diagnosing a disease according to an embodiment of the present disclosure.
  • FIG. 3 is a flowchart illustrating an operation of applying an analysis module of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
  • FIG. 4 is a diagram illustrating an example for describing a frame autonomy module of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram illustrating an example of extracting characteristic information of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating an example of generating integrated feature information in an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
  • FIG. 7 is a diagram illustrating an example of generating integrated feature information in an apparatus for diagnosing a disease according to another embodiment of the present disclosure.
  • FIG. 8 is a flowchart of a disease diagnosis method according to an embodiment of the present disclosure.
  • FIG. 9 is a block diagram of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
  • the present disclosure relates to an apparatus and method for diagnosing a disease.
  • the disease in the present specification describes, as an example, a geriatric disease in which the cognitive ability of the brain is lowered, such as Alzheimer's disease, Parkinson's disease, stroke, etc., but is not limited thereto as long as it is a visually distinguishable disease.
  • FIG. 1 is a diagram illustrating a configuration of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
  • an apparatus 100 for diagnosing a disease collects a plurality of image data continuously photographing a user's posture, and relates to a specific body part preset for each collected image data.
  • a disease diagnosis apparatus 100 including a disease diagnosis unit 130 for generating fusion characteristic information by concatenating characteristic information for each landmark and diagnosing a disease based on the integrated characteristic information is provided.
  • the reference information obtaining unit 110 may collect a plurality of image data obtained by continuously photographing a user's posture, and may obtain preset reference information regarding a specific body part for each of the collected image data.
  • the reference information obtaining unit 110 may collect a plurality of image data obtained by continuously photographing a posture performed by a user according to a protocol for disease examination.
  • the reference information obtaining unit 110 may continuously capture a plurality of image data of a posture of a user performing a still posture test, an eye movement test, a thumb and index finger repeated exercise test, a simple walking test, or a daily walking test, etc. can be collected.
  • the reference information acquisition unit 110 may set a specific body part including at least one of a user's face, pupil, body, and hand according to a diagnosis purpose or a diagnosis situation.
  • the reference information acquisition unit 110 may acquire reference information regarding a specific body part preset for each collected image data. That is, the preset specific body part may be variously changed.
  • the reference information acquisition unit 110 may acquire reference information about a face and reference information about a body, respectively, from image data of a user who has performed a still posture test.
  • the reference information obtaining unit 110 may obtain reference information about a face and reference information about a pupil from image data of a user who has performed an eye movement test.
  • the feature information extractor 120 may extract feature information for each landmark by applying an analysis module to landmark coordinate information for reference information extracted from each image data.
  • the feature information extractor 120 may extract landmark coordinate information for reference information through a coordinate extractor from each image data according to a protocol.
  • the coordinate extractor may be implemented as a face landmark coordinate extractor, a pupil landmark extractor, a body landmark extractor, a hand landmark extractor, or the like for a specific body part.
  • the landmark coordinate information may be coordinate information for a face joint, a pupil joint, a Time Up and Go (TUG) joint, a Maintenance of Wakefulness Test (MWT) joint, a hand joint, and the like.
  • TAG Time Up and Go
  • MTT Maintenance of Wakefulness Test
  • the feature information extraction unit 120 may independently apply each extracted landmark coordinate information to an analysis module to extract feature information for each landmark.
  • the analysis module may include a first neural network module that generates joint point information based on landmark coordinate information and a second neural network module that combines time axis information based on joint point information within the same frame.
  • the first neural network module may be based on a Graph Convolution Network (GCN)
  • the second neural network module may be based on a Convolutional Neural Network (CNN). Details of the analysis module will be described later with reference to FIG. 3 .
  • the analysis module may further include a frame autonomy module that adjusts the frame size of the landmark coordinate information to be the same.
  • the frame autonomy module may select a central frame based on a preset number of frames, and combine a plurality of peripheral frames based on the selected central frame to generate a central frame set.
  • the frame autonomy module may adjust the frame size of landmark coordinate information by concatenating a plurality of generated central frame sets. Accordingly, the analysis module may use the input data of the same size by adjusting the extracted landmark coordinate information to the same frame size through the frame autonomy module. Details of the frame autonomy module will be described later with reference to FIG. 4 .
  • the disease diagnosis unit 130 may generate fusion characteristic information by concatenating characteristic information for each landmark, and diagnose a disease based on the integrated characteristic information. For example, the disease diagnosis unit 130 generates integrated characteristic information by concatenating characteristic information for each landmark, and inputs it into a fully-connected layer to determine whether or not a disease occurs, its type and severity. At least one can be diagnosed. In addition, the disease diagnosis unit 130 calculates the average value of the characteristic information for each landmark and the maximum value of the characteristic information for each landmark, and concatenates the calculated average value and the maximum value to generate Fusion characteristic information. may be Details on the generation of the integrated feature information will be described later with reference to FIGS. 6 and 7 .
  • the disease diagnosis unit 130 may measure the accuracy of the disease diagnosis apparatus 100 by using the pre-labeled geriatric disease type and severity value. For example, the disease diagnosis unit 130 may measure the accuracy of the disease diagnosis apparatus 100 by comparing a diagnosis result and an actual result value for image data not used for learning.
  • FIG. 2 is a flowchart illustrating an operation of diagnosing a disease of the apparatus for diagnosing a disease according to an embodiment of the present disclosure.
  • the reference information acquisition unit 110 of the apparatus for diagnosing a disease may collect a plurality of image data ( S210 ).
  • the reference information acquisition unit 110 may collect a plurality of image data obtained by continuously photographing a posture performed by a user according to a protocol for testing a user for a disease.
  • the reference information acquisition unit 110 may collect a plurality of image data obtained by photographing the user's posture according to 12 diagnostic protocols except for the voice test.
  • the image data may be individually photographed from various angles, and an image number and type corresponding to each image data may be labeled and used.
  • the plurality of image data is a static posture test, eye movement test, thumb and index finger repetition exercise test, simple walking test, straight gait test, forehead wrinkle test, eye strain test, smile test, mouth open test, and tongue out test , it is possible to collect a plurality of image data continuously photographed from four directions (up, down, left and right) angles of the posture of the user performing the arm gathering test and finger/nose repetition exercise test. This has been described as an example of the type of image data, and is not limited thereto as long as it is suitable for diagnostic purposes.
  • the reference information acquisition unit 110 of the apparatus for diagnosing diseases may acquire reference information for each image data ( S220 ).
  • the reference information acquisition unit 110 may acquire reference information regarding a specific body part preset according to a diagnosis purpose or a diagnosis situation for each collected image data.
  • the reference information acquisition unit 110 may set a specific body part including at least one of a user's face, pupil, body, and hand according to a diagnosis purpose or a diagnosis situation.
  • the reference information acquisition unit 110 may acquire preset reference information on a specific body part from a plurality of image data according to 12 diagnostic protocols.
  • the reference information obtaining unit 110 may obtain reference information about the face from image data of a smile test performed by the user.
  • the feature information extraction unit 120 of the apparatus for diagnosing a disease may extract landmark coordinate information with respect to the reference information ( S230 ).
  • the feature information extractor 120 may extract landmark coordinate information for reference information through a coordinate extractor from each image data according to a protocol.
  • a coordinate extractor can extract landmark coordinates by learning a heat map to detect landmarks within an image by utilizing convolutional neural networks (CNNs).
  • CNNs convolutional neural networks
  • the coordinate extractor is not limited thereto.
  • the feature information extraction unit 120 may extract landmark coordinate information for the face by detecting key points of the face, such as the tip of the nose, eyebrows, corners of the eyes, and the mouth, from the image data taken from the smile test.
  • the feature information extraction unit 120 of the apparatus for diagnosing a disease may extract feature information for each landmark ( S240 ).
  • the feature information extractor 120 may extract feature information for each landmark by applying landmark coordinate information for the extracted reference information to the analysis module.
  • the feature information extraction unit 120 may extract feature information for each landmark by applying each landmark coordinate information to an analysis module that extracts a feature vector.
  • the feature information may mean a feature vector.
  • the feature information extractor 120 may apply landmark coordinate information having a different data size according to the frame length to the frame autonomy module to adjust the data size to the same. That is, the landmark coordinate information of which the frame size is adjusted may be used as input data of the analysis module.
  • the feature information extraction unit 120 applies coordinate information about a face joint, a pupil joint, a Time Up and Go (TUG) joint, a Maintenance of Wakefulness Test (MWT) joint, a hand joint, etc. to the analysis module to land Characteristic information for each mark can be extracted.
  • the characteristic information for each landmark may include facial characteristic information, body characteristic information, pupil characteristic information, or hand characteristic information extracted from each coordinate information. Details of the analysis module will be described later with reference to FIG. 3 .
  • the disease diagnosis unit 130 of the disease diagnosis apparatus may generate integrated characteristic information (S250).
  • the disease diagnosis unit 130 may generate fusion characteristic information by concatenating characteristic information for each landmark.
  • the disease diagnosis unit 130 may calculate the average value and the maximum value of the characteristic information for each channel from the extracted characteristic information for each landmark, and connect the calculated average value and the maximum value to generate the integrated characteristic information. That is, the disease diagnosis unit 130 may generate one piece of integrated characteristic information by integrating characteristic information for each landmark.
  • the disease diagnosis unit 130 of the disease diagnosis apparatus may diagnose a disease based on the integrated characteristic information ( S260 ).
  • the disease diagnosis unit 130 may diagnose at least one of the presence, absence, type, and severity of a disease by inputting the integrated characteristic information into a fully-connected layer.
  • the disease diagnosis unit 130 inputs the integrated characteristic information into a fully connected layer used for object classification purposes to determine the presence or absence of geriatric disease, the type (ex, dementia, Parkinson's disease, cerebrovascular disease, etc.) and severity (mild, severe, severe) can be diagnosed.
  • FIG. 3 is a flowchart illustrating an operation of applying an analysis module of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
  • the feature information extraction unit 120 of the apparatus for diagnosing a disease may extract landmark coordinate information with respect to reference information ( S230 ). Then, the feature information extraction unit 120 may apply each landmark coordinate information for the extracted reference information to the analysis module (S300).
  • the feature information extraction unit 120 may extract feature information for each landmark through an analysis module configured to further include a frame autonomy module or a fully connected layer based on the first neural network module and the second neural network module.
  • the analysis module is a joint-frame-based deep learning network module and may be a hierarchical network module in which joint-level and frame-level dependencies are sequentially connected. That is, the analysis module may be a Sematic Guided Neural Network (SGN), but is not limited thereto.
  • SGN Sematic Guided Neural Network
  • the feature information extraction unit 120 of the apparatus for diagnosing disease may adjust the frame size of the landmark coordinate information to be the same through the frame autonomy module (S310).
  • the feature information extractor 120 may input landmark coordinate information of the same size to the analysis module through the frame autonomy module.
  • the frame autonomy module may select a central frame based on a preset number of frames and combine a plurality of peripheral frames based on the central frame to generate a central frame set.
  • the frame autonomy module may adjust the frame size of landmark coordinate information by connecting the generated central frame set.
  • the feature information extraction unit 120 of the disease diagnosis apparatus may generate joint point information based on landmark coordinate information through the first neural network module (S320).
  • the feature information extractor 120 may generate joint point information through a first neural network module based on a graph convolution network (GCN).
  • GCN graph convolution network
  • the first neural network module may extract characteristic information of a joint level as a joint-level module for utilizing joint correlation.
  • the first neural network module extracts joint-level feature information by learning the graph connection between nodes (joints) in a frame based on the meaning (ex, connection weight aspect) and dynamics of the joint type based on the graph convolutional neural network. can do.
  • the feature information extraction unit 120 of the disease diagnosis apparatus may extract feature information by combining time axis information based on joint point information through the second neural network module (S330).
  • the feature information extraction unit 120 may extract feature information combining time axis information by connecting a second neural network module based on a convolutional neural network (CNN) behind the first neural network.
  • CNN convolutional neural network
  • the second neural network module may extract frame-level feature information as a frame-level module for utilizing the correlation between frames.
  • the second neural network module may extract frame-level feature information by performing a Spatial MaxPooling (SMP) operation on all features of joints within the same frame.
  • SMP Spatial MaxPooling
  • the extracted frame-level feature information can be combined with the built-in frame index information to learn feature information for classification through two temporal convolutional neural network layers. That is, the second neural network module may extract the frame-level feature information by applying the extracted joint-level feature information to spatial pooling, temporal pooling, convolution layer, and the like.
  • the frame-level feature information may be feature information combining time axis information included in the frame index based on joint point information.
  • the feature information extraction unit 120 of the apparatus for diagnosing disease may extract feature information for each landmark adjusted to a desired size through a fully-connected layer (S340).
  • the feature information extraction unit 120 may convert a matrix of feature vectors extracted for each landmark to a desired size by applying it to a fully-connected layer including an activation function such as softmax or sigmoid. have.
  • the feature information extraction unit 120 of the apparatus for diagnosing a disease may extract feature information for each landmark ( S240 ).
  • the feature information extraction unit 120 may extract feature information for each landmark by applying an analysis module for each landmark coordinate information, respectively.
  • FIG. 4 is a diagram illustrating an example for describing a frame autonomy module of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
  • the frame autonomy module may generate a central frame set by combining a plurality of peripheral frames based on a central frame selected based on a preset number of frames.
  • the frame autonomy module may adjust the frame size of landmark coordinate information by connecting the generated central frame set.
  • the frame autonomy module may select the central frame 420 based on the preset number of frames C in the landmark coordinate information 410 for reference information extracted from each image data.
  • the total size of the landmark coordinate information 410 for the extracted reference information may be 2N ⁇ F.
  • N may be the number of joint points
  • 2N may mean the number of joint points in a two-dimensional space
  • F may mean the total number of frames of image data.
  • the frame autonomy module may generate the central frame set 440 by combining a plurality of peripheral frames 430 based on the selected central frame 420 .
  • the size of each generated central frame set may be 2N ⁇ F'.
  • F' may mean the number of peripheral frames 430 coupled with respect to the central frame 420 .
  • the frame autonomy module may sequentially concatenate the generated central frame set 440 to adjust the frame size of landmark coordinate information identically.
  • the scaled landmark coordinate information 450 may be used as an input of an analysis module for extracting feature information.
  • the size of the scaled landmark coordinate information 450 may be 2N ⁇ F'C.
  • C may mean the number of center frames 420 selected as the preset number of frames.
  • the feature information extraction unit 120 of the disease diagnosis apparatus may adjust the number of frames to the same number through the frame autonomy module even if the plurality of image data is configured with different frame numbers.
  • FIG. 5 is a diagram illustrating an example of extracting characteristic information of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
  • the reference information acquisition unit 110 may acquire preset reference information regarding a specific body position for each of a plurality of image data obtained by continuously photographing a user's posture according to a diagnosis protocol.
  • the reference information acquisition unit 110 may acquire reference information on the first body part and reference information on the second body part from image data 1 of a user who has performed a test according to a diagnosis protocol.
  • Table 1 describes an example of test contents and respective reference information according to image data, but is not limited thereto.
  • the feature information extraction unit 120 may extract landmark coordinate information with respect to the reference information through the coordinate extraction module.
  • the feature information extraction unit 120 extracts landmark coordinate information for each body part by using the reference information about the first body part and the reference information about the second body part obtained from the image data 1 can do. That is, the feature information extraction unit 120 may extract at least one preset landmark coordinate information of a specific body part from the image data 1 through the coordinate extraction module. Accordingly, if the image data is different, the type and number of specific body parts from which landmark coordinate information is extracted may be changed.
  • the feature information extraction unit 120 may extract feature information for each landmark by applying the extracted respective landmark coordinate information to the analysis module.
  • the feature information extraction unit 120 applies the first body part landmark coordinate information and the second body part landmark coordinate information to the analysis module, respectively, to obtain the first body part feature information and the second body part feature information. can be extracted.
  • the feature information extraction unit 120 adjusts each landmark coordinate information to the same size through the frame autonomy module, and applies the joint-level first neural network module to the joint point for the landmark. information can be generated. Then, the feature information extraction unit 120 applies the frame-level second neural network module to the joint point information for the landmark, combines the time axis information, and finally extracts the feature information of the desired size through the fully connected layer. can That is, the feature information extraction unit 120 may extract feature information for each landmark from each landmark coordinate information through the analysis module.
  • the disease diagnosis unit 130 may connect feature information for each landmark extracted from a plurality of image data to finally generate one piece of integrated feature information. Details on the generation of the integrated feature information will be described later with reference to FIGS. 6 and 7 .
  • FIG. 6 is a diagram illustrating an example of generating integrated feature information in an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
  • the disease diagnosis unit 130 may generate the integrated characteristic information 620 by concatenating the characteristic information 610 for each landmark extracted from each image data.
  • the disease diagnosis unit 130 may generate the integrated characteristic information 620 by connecting the characteristic information 610 for each landmark extracted from each image data in a manner of arranging in a line.
  • the feature information 610 for each landmark is a C ⁇ 1 type feature vector and there are a total of N landmarks
  • the disease diagnosis unit 130 integrates the feature information 620 that is a NC ⁇ 1 type feature vector. can create
  • the disease diagnosis unit 130 may input the generated integrated characteristic information 620 into the fully connected layer 630 to diagnose at least one of the presence, absence, type, and severity of the disease.
  • the fully connected layer 630 includes a plurality of nodes, and each of the plurality of nodes may perform a predetermined operation on an input.
  • the fully connected layer 630 may output a result by applying a weight to the operation.
  • the output of the disease diagnosis unit 130 may indicate that the information included in the plurality of image data continuously photographing the user's posture may be at least one of the probability of occurrence of the corresponding disease, the probability of occurrence by disease type, or the occurrence probability by severity. have.
  • FIG. 7 is a diagram illustrating an example of generating integrated feature information in an apparatus for diagnosing a disease according to another embodiment of the present disclosure.
  • the disease diagnosis unit 130 may calculate an average value 710 and a maximum value 720 by using the characteristic information 610 for each landmark extracted from each image data.
  • the disease diagnosis unit 130 may generate the integrated feature information 730 by concatenating the average value 710 and the maximum value 720 .
  • the disease diagnosis unit 130 may generate the integrated feature information 730 by connecting the calculated average values 710 and the maximum values 720 in a manner that is arranged in a line.
  • the disease diagnosis unit 130 sets the average value 710 and the maximum value 710 that is a C ⁇ 1 type characteristic vector. Each value 720 may be calculated. Accordingly, the disease diagnosis unit may generate the integrated feature information 730 that is a 2C ⁇ 1 type feature vector.
  • the disease diagnosis unit 130 may input the generated integrated characteristic information 730 into the fully connected layer 630 to diagnose at least one of the presence, absence, type, and severity of the disease. Details on the fully connected layer 630 are the same as described above with reference to FIG. 6 . However, in the fully connected layer 630 , the weight size of the fully connected layer 630 may be differently applied as the shape of the input feature vector changes.
  • FIG. 8 is a flowchart of a method for diagnosing a disease according to an embodiment of the present disclosure.
  • the method of diagnosing a disease may include a step of acquiring reference information ( S810 ).
  • the apparatus for diagnosing a disease may collect a plurality of image data obtained by continuously photographing a user's posture, and may obtain preset reference information regarding a specific body part for each collected image data.
  • the disease diagnosis apparatus may collect a plurality of image data obtained by continuously capturing a posture of a user performed according to a disease test protocol.
  • the disease diagnosis apparatus may set a specific body part including at least one of a user's face, pupil, body, and hand according to a diagnosis purpose or a diagnosis situation.
  • the disease diagnosis apparatus may acquire preset reference information on a specific body part for each collected image data. That is, the preset specific body part may be variously changed.
  • the disease diagnosis method of the present disclosure may include a feature information extraction step (S820).
  • the disease diagnosis apparatus may extract characteristic information for each landmark by applying an analysis module to landmark coordinate information for reference information extracted from each image data.
  • the disease diagnosis apparatus may extract landmark coordinate information for reference information through a coordinate extractor from each image data according to a protocol.
  • the coordinate extractor may be a facial landmark coordinate extractor, a pupil landmark extractor, a body landmark extractor, or a hand landmark extractor.
  • the landmark coordinate information may be coordinate information for a face joint, a pupil joint, a Time Up and Go (TUG) joint, a Maintenance of Wakefulness Test (MWT) joint, a hand joint, and the like.
  • TAG Time Up and Go
  • MTT Maintenance of Wakefulness Test
  • the apparatus for diagnosing the disease may extract characteristic information for each landmark by independently applying the extracted coordinate information of each landmark to the analysis module.
  • the analysis module may include a first neural network module that generates joint point information based on landmark coordinate information and a second neural network module that combines time axis information based on joint point information within the same frame.
  • the first neural network module may be based on a Graph Convolution Network (GCN)
  • the second neural network module may be based on a Convolutional Neural Network (CNN).
  • GCN Graph Convolution Network
  • CNN Convolutional Neural Network
  • the analysis module may further include a frame autonomy module that adjusts the frame size of the landmark coordinate information to be the same.
  • the frame autonomy module may select a central frame based on a preset number of frames, and combine a plurality of peripheral frames based on the selected central frame to generate a central frame set.
  • the frame autonomy module may adjust the frame size of landmark coordinate information by concatenating a plurality of generated central frame sets. Accordingly, the analysis module may adjust the extracted landmark coordinate information to the same frame size through the frame autonomy module and use it as input data.
  • the disease diagnosis method of the present disclosure may include a disease diagnosis step (S830).
  • the apparatus for diagnosing a disease may generate fusion characteristic information by concatenating characteristic information for each landmark, and diagnose a disease based on the integrated characteristic information.
  • the disease diagnosis apparatus generates integrated characteristic information by concatenating characteristic information for each landmark, and inputs it into a fully-connected layer to determine at least one of the presence, absence, type, and severity of disease. can be diagnosed
  • the disease diagnosis apparatus may calculate the average value of the characteristic information for each landmark and the maximum value of the characteristic information for each landmark, and concatenate the calculated average value and the maximum value to generate fusion characteristic information.
  • FIG. 9 is a block diagram of an apparatus for diagnosing a disease according to an exemplary embodiment.
  • the disease diagnosis apparatus 100 includes a communication interface 910 and a processor 920 .
  • the disease diagnosis apparatus 1100 may further include a memory 930 .
  • Each component, the communication interface 910 , the processor 920 , and the memory 930 may be connected to each other through a communication bus.
  • a communication bus may include circuitry that connects components to each other and transfers communications (eg, control messages and/or data) between components.
  • the communication interface 910 may acquire a plurality of images of the user's posture. Also, the communication interface 1110 may communicate with an external device through wireless communication or wired communication.
  • the processor 920 may perform the at least one method described above with reference to FIGS. 1 to 8 or an algorithm corresponding to the at least one method.
  • the processor 920 may be a hardware-implemented data processing device having a circuit having a physical structure for executing desired operations.
  • desired operations may include code or instructions included in a program.
  • a data processing device implemented as hardware includes a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , a Neural Processing Unit (NPU), an Application-Specific Integrated Circuit (ASIC), and a Field Programmable Gate Array (FPGA).
  • NPU Neural Processing Unit
  • ASIC Application-Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • the processor 920 may execute a program and control the disease diagnosis apparatus 100 .
  • the program code executed by the processor 920 may be stored in the memory 930 .
  • Information on the artificial intelligence model including the neural network may be stored in the internal memory of the processor 920 or stored in an external memory, that is, the memory 930 .
  • the memory 930 may store a plurality of images obtained by photographing the user's posture acquired through the communication interface 910 .
  • the memory 930 may store an artificial intelligence model including a neural network.
  • the memory 930 may store various types of information generated in a process of the processor 920 and output information extracted by the processor 920 .
  • the output information may be a neural network operation result or a neural network test result.
  • the memory 930 may store a neural network learning result.
  • the neural network learning result may be obtained from the disease diagnosis apparatus 100 or from an external apparatus.
  • the neural network learning result may include a weight and a bias value.
  • the memory 930 may store various data and programs.
  • the memory 930 may include a volatile memory or a non-volatile memory.
  • the memory 930 may include a mass storage medium such as a hard disk to store various data.
  • the present disclosure is not necessarily limited to this embodiment. That is, within the scope of the present disclosure, all the components may operate by selectively combining one or more.
  • all the components may be implemented as one independent hardware, some or all of the components are selectively combined to perform some or all of the functions of one or a plurality of pieces of hardware.
  • the computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software.
  • Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks.
  • - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
  • the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computational Linguistics (AREA)
  • Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

The present disclosure relates to a disease diagnosis device and method, and, more particularly, can provide a disease diagnosis device and method, which can comprehensively diagnose diseases from a plurality of pieces of image data obtained by capturing diagnostic protocol images, during the diagnosis of visually distinguishable diseases. Specifically, provided are the disease diagnosis device and method, which can diagnose diseases by integrating respective pieces of feature information extracted from the plurality of pieces of image data through an analysis module.

Description

질병 진단 장치 및 방법Disease diagnosis apparatus and method
본 실시예들은 질병 진단 장치 및 방법을 제공한다.The present embodiments provide an apparatus and method for diagnosing a disease.
전 세계적으로 고령화가 급속히 진행됨에 따라, 고령자의 부양 문제가 세계적인 과제가 되고 있다. 유엔(United Nations, UN)에서는 고령화의 기준으로 65세 이상의 고령자를 정의하고 있다. 한편, 우리나라의 인구 고령화는 더욱 빠른 속도로 진행되고 있다. 통계청에서 발표한 자료에 따르면, 우리나라는 2018년 총인구의 약 14.3%(약 707만 명)가 고령자에 해당되며, 2026년에는 약 20.8%(약 1022만 명)가 고령자에 해당될 것으로 전망되고 있다. 이와 같이, 고령화로 인한 알츠하이머병, 파킨슨병, 뇌졸중 등의 뇌의 인지능력이 저하되는 퇴행성 질환 환자가 증가함에 따라 퇴행성 질환의 사전 진단, 경과 진단 및 치료는 사회적으로 중요한 문제가 되고 있다.With the rapid aging of the world, the problem of supporting the elderly has become a global issue. The United Nations (UN) defines the elderly over 65 years of age as the standard of aging. Meanwhile, Korea's population aging is progressing at a faster pace. According to data released by the National Statistical Office, about 14.3% (about 7.07 million people) of Korea's total population in 2018 belong to the elderly, and it is predicted that about 20.8% (about 10.22 million people) will fall into the category of the elderly in 2026. . As such, as the number of patients with degenerative diseases such as Alzheimer's disease, Parkinson's disease, and stroke due to aging increases, the number of patients with degenerative diseases in which the cognitive ability of the brain is lowered has become an important social problem.
또한, 최근 빅데이터, 기계학습, 인공 지능 분야의 급격한 기술 발전으로 인해, 헬스 케어 기술 분야에서도 인공 지능과 연계한 진단 기술에 대한 연구 개발이 증가하고 있다. 예를 들면 스마트폰, 인공 지능과 헬스 케어 기술과의 연계를 통해, 의사의 처방 없이 일반 소비자가 직접 사용할 수 있는 자가 진단 서비스에 대한 관심이 증가하고 있는바, 퇴행성 질환 분야에서도 스마트 홈 헬스 케어, 실버 헬스 케어 등과 같은 접근이 요구된다. 예를 들어, 노인성 질병은 의사-환자 간의 직접적인 진단을 통해서 판별할 수 있다. 구체적으로 노인성 질병의 진단은 의사가 환자에게 다양한 프로토콜의 검사를 지시하며, 이때 해당 검사를 수행하는 환자의 동공이나, 손떨림, 혹은 얼굴의 찡그림 등의 시각적 정보를 바탕으로 판별함에 따라 의사와 환자가 대면해야 하는 물리적 한계 및 의료 공급 불균형 현상이 발생한다는 문제점이 있다. In addition, due to the rapid technological development of big data, machine learning, and artificial intelligence in recent years, research and development of diagnostic technology linked with artificial intelligence is increasing in the health care technology field as well. For example, interest in self-diagnosis services that can be used directly by general consumers without a doctor's prescription through the connection of smartphones and artificial intelligence with health care technology is increasing. Smart home health care, smart home health care, Access such as silver health care is required. For example, geriatric diseases can be determined through direct diagnosis between a doctor and a patient. Specifically, in the diagnosis of geriatric disease, the doctor instructs the patient to test various protocols, and at this time, the doctor and the patient can There are physical limitations that must be faced and the problem of imbalance in medical supply.
따라서, 원활한 의료서비스를 제공하기 위해 시각적으로 판별 가능한 질병의 진단 시, 진단 프로토콜 영상이 촬영된 복수의 영상 데이터로부터 종합적으로 질병을 진단할 수 있는 기술을 필요로 하고 있다. Accordingly, there is a need for a technology capable of comprehensively diagnosing a disease from a plurality of image data obtained by a diagnostic protocol image when diagnosing a disease that can be visually identified in order to provide a smooth medical service.
이러한 배경에서, 본 실시예들 시각적으로 판별 가능한 질병의 진단 시, 진단 프로토콜 영상이 촬영된 복수의 영상 데이터로부터 종합적으로 질병을 진단할 수 있는 질병 진단 장치 및 방법을 제공하는데 있다.Against this background, the present embodiments provide an apparatus and method for diagnosing a disease capable of comprehensively diagnosing a disease from a plurality of image data from which a diagnostic protocol image is captured when diagnosing a visually distinguishable disease.
전술한 목적을 달성하기 위하여, 일 측면에서, 본 실시예는 질병 진단 장치에 있어서, 사용자의 자세를 계속적으로 촬영한 복수의 영상 데이터를 수집하고, 수집된 영상 데이터 별로 미리 설정된 특정 신체 부위에 관한 기준 정보를 획득하는 기준 정보 획득부, 각각의 영상 데이터로부터 추출된 기준 정보에 대한 랜드마크 좌표 정보에 분석 모듈을 적용하여 랜드마크 별 특징 정보를 추출하는 특징 정보 추출부 및 랜드마크 별 특징 정보를 연결(Concatenate)하여 통합(Fusion) 특징 정보를 생성하고, 통합 특징 정보에 기초하여 질병을 진단하는 질병 진단부를 포함하는 것을 특징으로 하는 질병 진단 장치를 제공한다.In order to achieve the above object, in one aspect, in the present embodiment, in an apparatus for diagnosing a disease, a plurality of image data obtained by continuously photographing a user's posture is collected, A reference information acquisition unit for acquiring reference information, a characteristic information extraction unit for extracting characteristic information for each landmark by applying an analysis module to landmark coordinate information for reference information extracted from each image data, and characteristic information for each landmark Provided is a disease diagnosis apparatus comprising a disease diagnosis unit for generating fusion characteristic information by concatenating and diagnosing a disease based on the integrated characteristic information.
다른 측면에서, 본 실시예는 질병 진단 방법에 있어서, 사용자의 자세를 계속적으로 촬영한 복수의 영상 데이터를 수집하고, 수집된 영상 데이터 별로 미리 설정된 특정 신체 부위에 관한 기준 정보를 획득하는 기준 정보 획득 단계, 각각의 영상 데이터로부터 추출된 기준 정보에 대한 랜드마크 좌표 정보에 분석 모듈을 적용하여 랜드마크 별 특징 정보를 추출하는 특징 정보 추출 단계 및 랜드마크 별 특징 정보를 연결(Concatenate)하여 통합(Fusion) 특징 정보를 생성하고, 통합 특징 정보에 기초하여 질병을 진단하는 질병 진단 단계를 포함하는 것을 특징으로 하는 질병 진단 방법을 제공한다. In another aspect, in the present embodiment, in a method for diagnosing a disease, a plurality of image data obtained by continuously photographing a user's posture is collected, and reference information is obtained for obtaining preset reference information on a specific body part for each collected image data. Step, a feature information extraction step of extracting feature information for each landmark by applying an analysis module to landmark coordinate information for reference information extracted from each image data, and a fusion by concatenating feature information for each landmark ) generating characteristic information and providing a disease diagnosis method comprising a disease diagnosis step of diagnosing a disease based on the integrated characteristic information.
본 실시예들에 의하면, 시각적으로 판별 가능한 질병의 진단 시, 진단 프로토콜 영상이 촬영된 복수의 동영상 데이터로부터 종합적으로 질병을 진단할 수 있는 질병 진단 장치 및 방법을 제공할 수 있다. According to the present embodiments, it is possible to provide an apparatus and method for diagnosing a disease that can comprehensively diagnose a disease from a plurality of video data from which a diagnostic protocol image is captured when diagnosing a visually distinguishable disease.
도 1은 본 개시의 일 실시예에 따른 질병 진단 장치의 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
도 2는 본 개시의 일 실시예에 따른 질병 진단 장치의 질병을 진단하는 동작을 설명하기 위한 흐름도이다. FIG. 2 is a flowchart illustrating an operation of diagnosing a disease of the apparatus for diagnosing a disease according to an embodiment of the present disclosure.
도 3은 본 개시의 일 실시예에 따른 질병 진단 장치의 분석 모듈을 적용하는 동작을 설명하기 위한 흐름도이다. 3 is a flowchart illustrating an operation of applying an analysis module of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
도 4는 본 개시의 일 실시예에 따른 질병 진단 장치의 프레임 자율화 모듈을 설명하기 위한 예시를 도시한 도면이다.4 is a diagram illustrating an example for describing a frame autonomy module of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
도 5는 본 개시의 일 실시예에 따른 질병 진단 장치의 특징 정보를 추출하는 예시를 도시한 도면이다.5 is a diagram illustrating an example of extracting characteristic information of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
도 6은 본 개시의 일 실시예에 따른 질병 진단 장치에서 통합 특징 정보를 생성하는 예시를 도시한 도면이다.6 is a diagram illustrating an example of generating integrated feature information in an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
도 7은 본 개시의 다른 실시예에 따른 질병 진단 장치에서 통합 특징 정보를 생성하는 예시를 도시한 도면이다.7 is a diagram illustrating an example of generating integrated feature information in an apparatus for diagnosing a disease according to another embodiment of the present disclosure.
도 8은 본 개시의 일 실시예에 따른 질병 진단 방법의 흐름도이다8 is a flowchart of a disease diagnosis method according to an embodiment of the present disclosure;
도 9는 본 개시의 일 실시예에 따른 질병 진단 장치의 블록도이다. 9 is a block diagram of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
본 개시는 질병 진단 장치 및 방법에 관한 것이다. The present disclosure relates to an apparatus and method for diagnosing a disease.
이하, 본 개시의 일부 실시 예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 개시를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present disclosure will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the present disclosure, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present disclosure, the detailed description thereof will be omitted.
또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the components of the present disclosure, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. When it is described that a component is “connected”, “coupled” or “connected” to another component, the component may be directly connected or connected to the other component, but another component is between each component. It should be understood that elements may be “connected,” “coupled,” or “connected.”
본 명세서에서의 질병은 알츠하이머병, 파킨슨병, 뇌졸중 등과 같이 뇌의 인지능력이 저하되는 노인성 질병을 일 예로 설명하나, 시각적으로 판별 가능한 질병이면 이에 한정되지 않는다. The disease in the present specification describes, as an example, a geriatric disease in which the cognitive ability of the brain is lowered, such as Alzheimer's disease, Parkinson's disease, stroke, etc., but is not limited thereto as long as it is a visually distinguishable disease.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.
도 1은 본 개시의 일 실시예에 따른 질병 진단 장치의 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
도 1을 참조하면, 본 개시의 일 실시예에 따른 질병 진단 장치(100)는, 사용자의 자세를 계속적으로 촬영한 복수의 영상 데이터를 수집하고, 수집된 영상 데이터 별로 미리 설정된 특정 신체 부위에 관한 기준 정보를 획득하는 기준 정보 획득부(110), 각각의 영상 데이터로부터 추출된 기준 정보에 대한 랜드마크 좌표 정보에 분석 모듈을 적용하여 랜드마크 별 특징 정보를 추출하는 특징 정보 추출부(120) 및 랜드마크 별 특징 정보를 연결(Concatenate)하여 통합(Fusion) 특징 정보를 생성하고, 통합 특징 정보에 기초하여 질병을 진단하는 질병 진단부(130)를 포함하는 질병 진단 장치(100)를 제공한다. Referring to FIG. 1 , an apparatus 100 for diagnosing a disease according to an embodiment of the present disclosure collects a plurality of image data continuously photographing a user's posture, and relates to a specific body part preset for each collected image data. A reference information acquisition unit 110 for acquiring reference information, a characteristic information extraction unit 120 for extracting characteristic information for each landmark by applying an analysis module to landmark coordinate information for reference information extracted from each image data, and A disease diagnosis apparatus 100 including a disease diagnosis unit 130 for generating fusion characteristic information by concatenating characteristic information for each landmark and diagnosing a disease based on the integrated characteristic information is provided.
일 실시예에 따른 기준 정보 획득부(110)는 사용자의 자세를 계속적으로 촬영한 복수의 영상 데이터를 수집하고, 수집된 영상 데이터 별로 미리 설정된 특정 신체 부위에 관한 기준 정보를 획득할 수 있다. 일 예로, 기준 정보 획득부(110)는 질병 검사를 위한 프로토콜에 따라 사용자가 수행하는 자세를 계속적으로 촬영한 복수의 영상 데이터를 수집할 수 있다. 예를 들어, 기준 정보 획득부(110)는 정지 자세 테스트, 눈 움직임 테스트, 엄지ㆍ검지 반복 운동 테스트, 단순 걷기 테스트 또는 일자 걸음 테스트 등을 수행하는 사용자의 자세를 계속적으로 촬영한 복수의 영상 데이터를 수집할 수 있다.The reference information obtaining unit 110 according to an embodiment may collect a plurality of image data obtained by continuously photographing a user's posture, and may obtain preset reference information regarding a specific body part for each of the collected image data. As an example, the reference information obtaining unit 110 may collect a plurality of image data obtained by continuously photographing a posture performed by a user according to a protocol for disease examination. For example, the reference information obtaining unit 110 may continuously capture a plurality of image data of a posture of a user performing a still posture test, an eye movement test, a thumb and index finger repeated exercise test, a simple walking test, or a daily walking test, etc. can be collected.
또한, 일 예로, 기준 정보 획득부(110)는 진단 목적 또는 진단 상황에 따라 사용자의 얼굴, 동공, 몸 및 손 중 적어도 하나를 포함하여 특정 신체 부위를 설정할 수 있다. 그리고, 기준 정보 획득부(110)는 수집된 영상 데이터 별로 미리 설정된 특정 신체 부위에 관한 기준 정보를 획득할 수 있다. 즉, 미리 설정되는 특정 신체 부위는 다양하게 변경될 수 있다. 예를 들어, 기준 정보 획득부(110)는 정지 자세 테스트를 수행한 사용자의 영상 데이터로부터 얼굴에 관한 기준 정보와 몸에 관한 기준 정보를 각각 획득할 수 있다. 또한, 기준 정보 획득부(110)는 눈 움직임 테스트를 수행한 사용자의 영상 데이터로부터 얼굴에 관한 기준 정보와 동공에 관한 기준 정보를 획득할 수 있다. Also, as an example, the reference information acquisition unit 110 may set a specific body part including at least one of a user's face, pupil, body, and hand according to a diagnosis purpose or a diagnosis situation. In addition, the reference information acquisition unit 110 may acquire reference information regarding a specific body part preset for each collected image data. That is, the preset specific body part may be variously changed. For example, the reference information acquisition unit 110 may acquire reference information about a face and reference information about a body, respectively, from image data of a user who has performed a still posture test. Also, the reference information obtaining unit 110 may obtain reference information about a face and reference information about a pupil from image data of a user who has performed an eye movement test.
일 실시예에 따른 특징 정보 추출부(120)는 각각의 영상 데이터로부터 추출된 기준 정보에 대한 랜드마크 좌표 정보에 분석 모듈을 적용하여 랜드마크 별 특징 정보를 추출할 수 있다. 일 예로, 특징 정보 추출부(120)는 프로토콜에 따른 각각의 영상 데이터로부터 좌표 추출기를 통해 기준 정보에 대한 랜드마크 좌표 정보를 추출할 수 있다. 예를 들어, 좌표 추출기는 얼굴 랜드마크 좌표 추출기, 동공 랜드마크 추출기, 몸 랜드마크 추출기 또는 손 랜드마크 추출기 등으로 특정 신체 부위에 적합하게 구현될 수 있다. 또한, 랜드마크 좌표 정보는 face joint, pupil joint, TUG(Time Up and Go) joint, MWT (Maintenance of Wakefulness Test) joint, hand joint 등에 대한 좌표 정보일 수 있다.The feature information extractor 120 according to an embodiment may extract feature information for each landmark by applying an analysis module to landmark coordinate information for reference information extracted from each image data. For example, the feature information extractor 120 may extract landmark coordinate information for reference information through a coordinate extractor from each image data according to a protocol. For example, the coordinate extractor may be implemented as a face landmark coordinate extractor, a pupil landmark extractor, a body landmark extractor, a hand landmark extractor, or the like for a specific body part. In addition, the landmark coordinate information may be coordinate information for a face joint, a pupil joint, a Time Up and Go (TUG) joint, a Maintenance of Wakefulness Test (MWT) joint, a hand joint, and the like.
또한, 일 예로, 특징 정보 추출부(120)는 추출된 각각의 랜드마크 좌표 정보를 독립적으로 분석 모듈에 적용하여 랜드마크 별 특징 정보를 추출할 수 있다. 예를 들어, 분석 모듈은 랜드마크 좌표 정보를 기반으로 관절점 정보를 생성하는 제 1 신경망 모듈과 동일 프레임 내 관절점 정보를 기반으로 시간 축 정보를 결합하는 제 2 신경망 모듈을 포함하여 구성될 수 있다. 구체적인 예를 들면, 제 1 신경망 모듈은 그래프 합성곱 신경망(Graph Convolution Network, GCN)을 기반으로 하고, 제 2 신경망 모듈은 합성곱 신경망(Convolutional Neural Network, CNN)을 기반으로 할 수 있다. 분석 모듈에 관한 상세한 내용은 도 3을 참조하여 후술한다. Also, as an example, the feature information extraction unit 120 may independently apply each extracted landmark coordinate information to an analysis module to extract feature information for each landmark. For example, the analysis module may include a first neural network module that generates joint point information based on landmark coordinate information and a second neural network module that combines time axis information based on joint point information within the same frame. have. As a specific example, the first neural network module may be based on a Graph Convolution Network (GCN), and the second neural network module may be based on a Convolutional Neural Network (CNN). Details of the analysis module will be described later with reference to FIG. 3 .
다른 예를 들어, 분석 모듈은 랜드마크 좌표 정보의 프레임 크기를 동일하게 조절하는 프레임 자율화 모듈을 더 포함할 수 있다. 구체적인 예를 들면, 프레임 자율화 모듈은 미리 설정된 프레임 개수에 기초하여 중심 프레임을 선택하고, 선택된 중심 프레임을 기준으로 복수의 주변 프레임을 결합하여 중심 프레임 세트를 생성할 수 있다. 그리고, 프레임 자율화 모듈은 생성한 복수의 중심 프레임 세트를 연결(Concatenate)하여 랜드마크 좌표 정보의 프레임 크기를 조절할 수 있다. 이에 따라, 분석 모듈은 추출된 랜드마크 좌표 정보를 프레임 자율화 모듈을 통해 동일한 프레임 크기로 조절하여 동일한 크기의 입력 데이터를 사용할 수 있다. 프레임 자율화 모듈에 관한 상세한 내용은 도 4를 참조하여 후술한다. As another example, the analysis module may further include a frame autonomy module that adjusts the frame size of the landmark coordinate information to be the same. As a specific example, the frame autonomy module may select a central frame based on a preset number of frames, and combine a plurality of peripheral frames based on the selected central frame to generate a central frame set. In addition, the frame autonomy module may adjust the frame size of landmark coordinate information by concatenating a plurality of generated central frame sets. Accordingly, the analysis module may use the input data of the same size by adjusting the extracted landmark coordinate information to the same frame size through the frame autonomy module. Details of the frame autonomy module will be described later with reference to FIG. 4 .
일 실시예에 따른 질병 진단부(130)는 랜드마크 별 특징 정보를 연결(Concatenate)하여 통합(Fusion) 특징 정보를 생성하고, 통합 특징 정보에 기초하여 질병을 진단할 수 있다. 예를 들어, 질병 진단부(130)는 랜드마크 별 특징 정보를 연결(Concatenate)하여 통합 특징 정보를 생성하고, 완전 연결 계층(Fully-connected layer)에 입력하여 질병의 발생 유무, 종류 및 중증도 중 적어도 하나를 진단할 수 있다. 또한, 질병 진단부(130)는 랜드마크 별 특징 정보의 평균값과 랜드마크 별 특징 정보의 최대값을 산출하고, 산출된 평균값과 최대값을 연결(Concatenate)하여 통합(Fusion) 특징 정보를 생성할 수도 있다. 통합 특징 정보의 생성에 관한 상세한 내용은 도 6 및 도 7을 참조하여 후술한다. The disease diagnosis unit 130 according to an embodiment may generate fusion characteristic information by concatenating characteristic information for each landmark, and diagnose a disease based on the integrated characteristic information. For example, the disease diagnosis unit 130 generates integrated characteristic information by concatenating characteristic information for each landmark, and inputs it into a fully-connected layer to determine whether or not a disease occurs, its type and severity. At least one can be diagnosed. In addition, the disease diagnosis unit 130 calculates the average value of the characteristic information for each landmark and the maximum value of the characteristic information for each landmark, and concatenates the calculated average value and the maximum value to generate Fusion characteristic information. may be Details on the generation of the integrated feature information will be described later with reference to FIGS. 6 and 7 .
일 실시예에 따른 질병 진단부(130)는 미리 라벨링된 노인성 질병의 종류와 중증도 값을 활용하여 질병 진단 장치(100)의 정확도를 측정할 수 있다. 일 예로, 질병 진단부(130)는 학습에 사용되지 않은 영상 데이터에 대하여 진단한 결과와 실제 결과 값을 비교하여 질병 진단 장치(100)의 정확도를 측정할 수 있다. The disease diagnosis unit 130 according to an exemplary embodiment may measure the accuracy of the disease diagnosis apparatus 100 by using the pre-labeled geriatric disease type and severity value. For example, the disease diagnosis unit 130 may measure the accuracy of the disease diagnosis apparatus 100 by comparing a diagnosis result and an actual result value for image data not used for learning.
도 2는 본 개시의 일 실시예에 따른 질병 진단 장치의 질병을 진단하는 동작을 설명하기 위한 흐름도이다. FIG. 2 is a flowchart illustrating an operation of diagnosing a disease of the apparatus for diagnosing a disease according to an embodiment of the present disclosure.
도 2를 참조하면, 본 개시의 일 실시예에 따른 질병 진단 장치의 기준 정보 획득부(110)는 복수의 영상 데이터를 수집할 수 있다(S210). 일 예로, 기준 정보 획득부(110)는 사용자에 대한 질병 검사를 위한 프로토콜에 따라 사용자가 수행하는 자세를 계속적으로 촬영한 복수의 영상 데이터를 수집할 수 있다. 예를 들어, 기준 정보 획득부(110)는 음성 테스트를 제외한 12가지 진단 프토로콜에 따른 사용자의 자세를 촬영한 복수의 영상 데이터를 수집할 수 있다. 이 때, 영상 데이터는 다양한 각도에서 개별적으로 촬영될 수 있고, 각각의 영상 데이터에 대응하는 영상 번호 및 종류가 라벨링되어 사용될 수 있다. 구체적으로, 복수의 영상 데이터는 정지 자세 테스트, 눈 움직임 테스트, 엄지ㆍ검지 반복 운동 테스트, 단순 걷기 테스트, 일자 걸음 테스트, 이마 주름지기 테스트, 눈 찡그림 테스트, 웃기 테스트, 입 벌리기 테스트, 혀 내밀기 테스트, 팔 모이기 테스트 및 손가락ㆍ코 반복 운동 테스트 등을 수행하는 사용자의 자세를 4방향(상하좌우) 각도에서 계속적으로 촬영한 복수의 영상 데이터를 수집할 수 있다. 이는 영상 데이터 종류의 일 예를 설명한 것으로, 진단 목적에 적합하면 이에 한정되지 않는다. Referring to FIG. 2 , the reference information acquisition unit 110 of the apparatus for diagnosing a disease according to an embodiment of the present disclosure may collect a plurality of image data ( S210 ). As an example, the reference information acquisition unit 110 may collect a plurality of image data obtained by continuously photographing a posture performed by a user according to a protocol for testing a user for a disease. For example, the reference information acquisition unit 110 may collect a plurality of image data obtained by photographing the user's posture according to 12 diagnostic protocols except for the voice test. In this case, the image data may be individually photographed from various angles, and an image number and type corresponding to each image data may be labeled and used. Specifically, the plurality of image data is a static posture test, eye movement test, thumb and index finger repetition exercise test, simple walking test, straight gait test, forehead wrinkle test, eye strain test, smile test, mouth open test, and tongue out test , it is possible to collect a plurality of image data continuously photographed from four directions (up, down, left and right) angles of the posture of the user performing the arm gathering test and finger/nose repetition exercise test. This has been described as an example of the type of image data, and is not limited thereto as long as it is suitable for diagnostic purposes.
일 실시예에 따른 질병 진단 장치의 기준 정보 획득부(110)는 영상 데이터 별 기준 정보를 획득할 수 있다(S220). 일 예로, 기준 정보 획득부(110)는 수집된 영상 데이터 별로 진단 목적 또는 진단 상황에 따라 미리 설정된 특정 신체 부위에 관한 기준 정보를 획득할 수 있다. 예를 들어, 기준 정보 획득부(110)는 진단 목적 또는 진단 상황에 따라 사용자의 얼굴, 동공, 몸 및 손 중 적어도 하나를 포함하여 특정 신체 부위를 설정할 수 있다. 그리고, 기준 정보 획득부(110)는 12가지 진단 프토로콜에 따른 복수의 영상 데이터에서 미리 설정된 특정 신체 부위에 관한 기준 정보를 획득할 수 있다. 구체적인 예를 들면, 기준 정보 획득부(110)는 사용자가 수행한 웃기 테스트를 촬영한 영상 데이터로부터 얼굴에 관한 기준 정보를 획득할 수 있다. The reference information acquisition unit 110 of the apparatus for diagnosing diseases according to an embodiment may acquire reference information for each image data ( S220 ). For example, the reference information acquisition unit 110 may acquire reference information regarding a specific body part preset according to a diagnosis purpose or a diagnosis situation for each collected image data. For example, the reference information acquisition unit 110 may set a specific body part including at least one of a user's face, pupil, body, and hand according to a diagnosis purpose or a diagnosis situation. In addition, the reference information acquisition unit 110 may acquire preset reference information on a specific body part from a plurality of image data according to 12 diagnostic protocols. As a specific example, the reference information obtaining unit 110 may obtain reference information about the face from image data of a smile test performed by the user.
일 실시예에 따른 질병 진단 장치의 특징 정보 추출부(120)는 기준 정보에 대한 랜드마크 좌표 정보를 추출할 수 있다(S230). 일 예로, 특징 정보 추출부(120)는 프로토콜에 따른 각각의 영상 데이터로부터 좌표 추출기를 통해 기준 정보에 대한 랜드마크 좌표 정보를 추출할 수 있다. 예를 들어, 좌표 추출기는 합성곱 신경망 (Convolutional Neural Networks, CNN)을 활용하여 이미지 내에서 랜드마크를 감지하기 위해 히트맵을 학습시켜 랜드마크 좌표를 추출할 수 있다. 다만, 영상 데이터로부터 랜드마크의 좌표를 추출할 수 있으면, 좌표 추출기는 이에 한정되지는 않는다. 구체적인 예를 들면, 특징 정보 추출부(120)는 웃기 테스트를 촬영한 영상 데이터로부터 코끝, 눈썹, 눈꼬리 및 입과 같은 얼굴의 핵심 포인트를 감지하여 얼굴에 대한 랜드마크 좌표 정보를 추출할 수 있다.The feature information extraction unit 120 of the apparatus for diagnosing a disease according to an embodiment may extract landmark coordinate information with respect to the reference information ( S230 ). For example, the feature information extractor 120 may extract landmark coordinate information for reference information through a coordinate extractor from each image data according to a protocol. For example, a coordinate extractor can extract landmark coordinates by learning a heat map to detect landmarks within an image by utilizing convolutional neural networks (CNNs). However, if the coordinates of the landmark can be extracted from the image data, the coordinate extractor is not limited thereto. As a specific example, the feature information extraction unit 120 may extract landmark coordinate information for the face by detecting key points of the face, such as the tip of the nose, eyebrows, corners of the eyes, and the mouth, from the image data taken from the smile test.
일 실시예에 따른 질병 진단 장치의 특징 정보 추출부(120)는 랜드마크 별 특징 정보를 추출할 수 있다(S240). 일 예로, 특징 정보 추출부(120)는 추출된 기준 정보에 대한 랜드마크 좌표 정보를 분석 모듈에 적용하여 랜드 마크 별 특징 정보를 추출할 수 있다. 예를 들어, 특징 정보 추출부(120)는 각각의 랜드마크 좌표 정보를 특징 벡터를 추출하는 분석 모듈에 적용하여 랜드마크 별 특징 정보를 추출할 수 있다. 여기서, 특징 정보는 특징 벡터를 의미할 수 있다. 또한, 특징 정보 추출부(120)는 분석 모듈의 적용 전, 프레임 길이에 따라 데이터 크기가 다른 랜드마크 좌표 정보를 프레임 자율화 모듈에 적용하여 데이터 크기를 동일하게 조절할 수 있다. 즉, 프레임 크기가 조절된 랜드마크 좌표 정보는 분석 모듈의 입력 데이터로 사용될 수 있다. 구체적인 예를 들면, 특징 정보 추출부(120)는 face joint, pupil joint, TUG(Time Up and Go) joint, MWT (Maintenance of Wakefulness Test) joint, hand joint 등에 대한 좌표 정보를 분석 모듈에 적용하여 랜드마크 별 특징 정보를 추출할 수 있다. 랜드마크 별 특징 정보는 각각의 좌표 정보로부터 추출된 얼굴 특징 정보, 몸 특징 정보, 동공 특징 정보 또는 손 특징 정보 등을 포함할 수 있다. 분석 모듈에 관한 상세한 내용은 도 3을 참조하여 후술한다. The feature information extraction unit 120 of the apparatus for diagnosing a disease according to an embodiment may extract feature information for each landmark ( S240 ). For example, the feature information extractor 120 may extract feature information for each landmark by applying landmark coordinate information for the extracted reference information to the analysis module. For example, the feature information extraction unit 120 may extract feature information for each landmark by applying each landmark coordinate information to an analysis module that extracts a feature vector. Here, the feature information may mean a feature vector. Also, before application of the analysis module, the feature information extractor 120 may apply landmark coordinate information having a different data size according to the frame length to the frame autonomy module to adjust the data size to the same. That is, the landmark coordinate information of which the frame size is adjusted may be used as input data of the analysis module. For a specific example, the feature information extraction unit 120 applies coordinate information about a face joint, a pupil joint, a Time Up and Go (TUG) joint, a Maintenance of Wakefulness Test (MWT) joint, a hand joint, etc. to the analysis module to land Characteristic information for each mark can be extracted. The characteristic information for each landmark may include facial characteristic information, body characteristic information, pupil characteristic information, or hand characteristic information extracted from each coordinate information. Details of the analysis module will be described later with reference to FIG. 3 .
일 실시예에 따라 질병 진단 장치의 질병 진단부(130)는 통합 특징 정보를 생성할 수 있다(S250). 일 예로, 질병 진단부(130)는 랜드마크 별 특징 정보를 연결(Concatenate)하여 통합(Fusion) 특징 정보를 생성할 수 있다. 예를 들어, 질병 진단부(130)는 추출된 랜드마크 별 특징 정보를 채널 별로 특징 정보의 평균값과 최대값을 산출하고, 산출된 평균값과 최대값을 연결하여 통합 특징 정보를 생성할 수 있다. 즉, 질병 진단부(130)는 복수의 랜드마크 별 특징 정보를 통합하여 하나의 통합 특징 정보를 생성할 수 있다. According to an embodiment, the disease diagnosis unit 130 of the disease diagnosis apparatus may generate integrated characteristic information (S250). For example, the disease diagnosis unit 130 may generate fusion characteristic information by concatenating characteristic information for each landmark. For example, the disease diagnosis unit 130 may calculate the average value and the maximum value of the characteristic information for each channel from the extracted characteristic information for each landmark, and connect the calculated average value and the maximum value to generate the integrated characteristic information. That is, the disease diagnosis unit 130 may generate one piece of integrated characteristic information by integrating characteristic information for each landmark.
일 실시예에 따라 질병 진단 장치의 질병 진단부(130)는 통합 특징 정보에 기초하여 질병을 진단할 수 있다(S260). 일 예로, 질병 진단부(130)는 통합 특징 정보를 완전 연결 계층(Fully-connected layer)에 입력하여 질병의 발생 유무, 종류 및 중증도 중 적어도 하나를 진단할 수 있다. 예를 들어, 질병 진단부(130)는 통합 특징 정보를 객체의 분류 목적으로 사용되는 완전 연결 계층에 입력하여 노인성 질병의 발생 유무, 종류(ex, 치매, 파킨스, 뇌혈관 질환 등) 및 중증도(경증, 중증, 위중)를 진단할 수 있다.According to an embodiment, the disease diagnosis unit 130 of the disease diagnosis apparatus may diagnose a disease based on the integrated characteristic information ( S260 ). For example, the disease diagnosis unit 130 may diagnose at least one of the presence, absence, type, and severity of a disease by inputting the integrated characteristic information into a fully-connected layer. For example, the disease diagnosis unit 130 inputs the integrated characteristic information into a fully connected layer used for object classification purposes to determine the presence or absence of geriatric disease, the type (ex, dementia, Parkinson's disease, cerebrovascular disease, etc.) and severity (mild, severe, severe) can be diagnosed.
도 3은 본 개시의 일 실시예에 따른 질병 진단 장치의 분석 모듈을 적용하는 동작을 설명하기 위한 흐름도이다. 3 is a flowchart illustrating an operation of applying an analysis module of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
도 3을 참조하면, 본 개시의 일 실시예에 따른 질병 진단 장치의 특징 정보 추출부(120)는 기준 정보에 대한 랜드마크 좌표 정보를 추출할 수 있다(S230). 그리고, 특징 정보 추출부(120)는 추출된 기준 정보에 대한 각각의 랜드마크 좌표 정보를 분석 모듈에 적용할 수 있다(S300). 일 예로, 특징 정보 추출부(120)는 제 1 신경망 모듈과 제 2 신경망 모듈을 기초로 프레임 자율화 모듈 또는 완전 연결 계층을 더 포함하여 구성되는 분석 모듈을 통해 랜드마크 별 특징 정보를 추출할 수 있다. 예를 들어, 분석 모듈은 Joint-Frame 기반의 딥러닝 네트워크 모듈로 관절 수준 및 프레임 수준의 종속성이 순차적으로 연결된 계층적 네트워크 모듈일 수 있다. 즉, 분석 모듈은 의미론 유도 신경망(Sematic Guided Neural Network, SGN)일 수 있으나 이에 한정되지는 않는다. Referring to FIG. 3 , the feature information extraction unit 120 of the apparatus for diagnosing a disease according to an embodiment of the present disclosure may extract landmark coordinate information with respect to reference information ( S230 ). Then, the feature information extraction unit 120 may apply each landmark coordinate information for the extracted reference information to the analysis module (S300). As an example, the feature information extraction unit 120 may extract feature information for each landmark through an analysis module configured to further include a frame autonomy module or a fully connected layer based on the first neural network module and the second neural network module. . For example, the analysis module is a joint-frame-based deep learning network module and may be a hierarchical network module in which joint-level and frame-level dependencies are sequentially connected. That is, the analysis module may be a Sematic Guided Neural Network (SGN), but is not limited thereto.
일 실시예에 따른 질병 진단 장치의 특징 정보 추출부(120)는 프레임 자율화 모듈을 통해 랜드마크 좌표 정보의 프레임 크기를 동일하게 조절할 수 있다(S310). 일 예로, 특징 정보 추출부(120)는 프레임 자율화 모듈을 통해 동일한 크기의 랜드마크 좌표 정보를 분석 모듈에 입력할 수 있다. 예를 들어, 프레임 자율화 모듈은 미리 설정된 프레임 개수에 기초하여 중심 프레임을 선택하고, 중심 프레임을 기준으로 복수의 주변 프레임을 결합하여 중심 프레임 세트를 생성할 수 있다. 그리고, 프레임 자율화 모듈은 생성된 중심 프레임 세트를 연결하여 랜드마크 좌표 정보의 프레임 크기를 조절할 수 있다.The feature information extraction unit 120 of the apparatus for diagnosing disease according to an embodiment may adjust the frame size of the landmark coordinate information to be the same through the frame autonomy module (S310). For example, the feature information extractor 120 may input landmark coordinate information of the same size to the analysis module through the frame autonomy module. For example, the frame autonomy module may select a central frame based on a preset number of frames and combine a plurality of peripheral frames based on the central frame to generate a central frame set. In addition, the frame autonomy module may adjust the frame size of landmark coordinate information by connecting the generated central frame set.
일 실시예에 따른 질병 진단 장치의 특징 정보 추출부(120)는 제 1 신경망 모듈을 통해 랜드마크 좌표 정보를 기반으로 관절점 정보를 생성할 수 있다(S320). 일 예로, 특징 정보 추출부(120)는 그래프 합성곱 신경망(Graph Convolution Network, GCN)을 기반으로 하는 제 1 신경망 모듈을 통해 관절점 정보를 생성할 수 있다. 예를 들어, 제 1 신경망 모듈은 관절의 상관 관계를 활용하기 위한 joint-level 모듈로 관절 수준(joint level)의 특징 정보를 추출할 수 있다. 구체적으로, 제 1 신경망 모듈은 그래프 합성곱 신경망을 기반으로 관절 유형의 의미(ex, 연결 가중치 측면)와 역학에 기초하여 프레임 내 노드(관절)간의 그래프 연결을 학습하여 관절 수준의 특징 정보를 추출할 수 있다. The feature information extraction unit 120 of the disease diagnosis apparatus according to an embodiment may generate joint point information based on landmark coordinate information through the first neural network module (S320). As an example, the feature information extractor 120 may generate joint point information through a first neural network module based on a graph convolution network (GCN). For example, the first neural network module may extract characteristic information of a joint level as a joint-level module for utilizing joint correlation. Specifically, the first neural network module extracts joint-level feature information by learning the graph connection between nodes (joints) in a frame based on the meaning (ex, connection weight aspect) and dynamics of the joint type based on the graph convolutional neural network. can do.
일 실시예에 따른 질병 진단 장치의 특징 정보 추출부(120)는 제 2 신경망 모듈을 통해 관절점 정보를 기반으로 시간 축 정보를 결합하여 특징 정보를 추출할 수 있다(S330). 일 예로, 특징 정보 추출부(120)는 제 1 신경망 뒤에 합성곱 신경망(Convolutional Neural Network, CNN)을 기반으로 하는 제 2 신경망 모듈을 연결하여 시간 축 정보를 결합한 특징 정보를 추출할 수 있다. 예를 들어, 제 2 신경망 모듈은 프레임 간의 상관 관계를 활용하기 위한 frame-level 모듈로 프레임 수준(frame level)의 특징 정보를 추출할 수 있다. 구체적으로, 제 2 신경망 모듈은 동일 프레임 내 관절의 모든 특징에 대해 SMP(Spatial MaxPooling) 연산을 수행하여 프레임 수준의 특징 정보를 추출할 수 있다. 그리고, 추출된 프레임 수준의 특징 정보는 내장된 프레임 인덱스 정보와 결합하여 두 개의 시간적 컨볼루션 신경망 계층을 통해 분류를 위한 특징 정보를 학습할 수 있다. 즉, 제 2 신경망 모듈은 추출된 관절 수준의 특징 정보를 spatial pooling, temporal pooling, convolution layer 등에 적용하여 프레임 수준의 특징 정보를 추출할 수 있다. 여기서, 프레임 수준의 특징 정보는 관절점 정보를 기반으로 프레임 인덱스에 포함된 시간 축 정보를 결합한 특징 정보일 수 있다.The feature information extraction unit 120 of the disease diagnosis apparatus according to an embodiment may extract feature information by combining time axis information based on joint point information through the second neural network module (S330). As an example, the feature information extraction unit 120 may extract feature information combining time axis information by connecting a second neural network module based on a convolutional neural network (CNN) behind the first neural network. For example, the second neural network module may extract frame-level feature information as a frame-level module for utilizing the correlation between frames. Specifically, the second neural network module may extract frame-level feature information by performing a Spatial MaxPooling (SMP) operation on all features of joints within the same frame. In addition, the extracted frame-level feature information can be combined with the built-in frame index information to learn feature information for classification through two temporal convolutional neural network layers. That is, the second neural network module may extract the frame-level feature information by applying the extracted joint-level feature information to spatial pooling, temporal pooling, convolution layer, and the like. Here, the frame-level feature information may be feature information combining time axis information included in the frame index based on joint point information.
일 실시예에 따른 질병 진단 장치의 특징 정보 추출부(120)는 완전 연결 계층(Fully-connected layer)을 통해 원하는 크기로 조절된 랜드마크 별 특징 정보를 추출할 수 있다(S340). 예를 들어, 특징 정보 추출부(120)는 softmax 또는 sigmoid 등의 활성화 함수를 포함하는 완전 연결 계층(Fully-connected layer)에 적용하여 랜드마크 별로 추출된 특징 벡터의 행렬을 원하는 크기로 변환할 수 있다. The feature information extraction unit 120 of the apparatus for diagnosing disease according to an embodiment may extract feature information for each landmark adjusted to a desired size through a fully-connected layer (S340). For example, the feature information extraction unit 120 may convert a matrix of feature vectors extracted for each landmark to a desired size by applying it to a fully-connected layer including an activation function such as softmax or sigmoid. have.
일 실시예에 따른 질병 진단 장치의 특징 정보 추출부(120)는 랜드마크 별 특징 정보를 추출할 수 있다(S240). 일 예로, 특징 정보 추출부(120)는 랜드마크 좌표 정보 별로 분석 모듈을 각각 적용하여 랜드마크 별로 특징 정보를 추출할 수 있다.The feature information extraction unit 120 of the apparatus for diagnosing a disease according to an embodiment may extract feature information for each landmark ( S240 ). For example, the feature information extraction unit 120 may extract feature information for each landmark by applying an analysis module for each landmark coordinate information, respectively.
도 4는 본 개시의 일 실시예에 따른 질병 진단 장치의 프레임 자율화 모듈을 설명하기 위한 예시를 도시한 도면이다.4 is a diagram illustrating an example for describing a frame autonomy module of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
도 4를 참조하면, 본 개시의 일 실시예에 따른 질병 진단 장치의 프레임 자율화 모듈이 랜드마크 좌표 정보의 프레임 크기를 동일하게 조절하는 내용을 설명할 수 있다. 일 예로, 프레임 자율화 모듈은 미리 설정된 프레임 개수에 기초하여 선택한 중심 프레임을 기준으로 복수의 주변 프레임을 결합하여 중심 프레임 세트를 생성할 수 있다. 그리고, 프레임 자율화 모듈은 생성된 중심 프레임 세트를 연결하여 랜드마크 좌표 정보의 프레임 크기를 조절할 수 있다.Referring to FIG. 4 , content in which the frame autonomy module of the apparatus for diagnosing a disease according to an embodiment of the present disclosure adjusts the frame size of landmark coordinate information to be the same may be described. For example, the frame autonomy module may generate a central frame set by combining a plurality of peripheral frames based on a central frame selected based on a preset number of frames. In addition, the frame autonomy module may adjust the frame size of landmark coordinate information by connecting the generated central frame set.
예를 들어, 프레임 자율화 모듈은 각각의 영상 데이터로부터 추출된 기준 정보에 대한 랜드마크 좌표 정보(410)에서 미리 설정된 프레임 개수(C)에 기초하여 중심 프레임(420)을 선택할 수 있다. 구체적으로, 추출된 기준 정보에 대한 랜드마크 좌표 정보(410)의 전체 크기는 2NХF일 수 있다. 여기서, N은 관절점(joint) 개수로 2N은 2차원 공간에 있는 관절점의 개수를 의미하고, F는 영상 데이터의 전체 프레임 개수를 의미할 수 있다. For example, the frame autonomy module may select the central frame 420 based on the preset number of frames C in the landmark coordinate information 410 for reference information extracted from each image data. Specifically, the total size of the landmark coordinate information 410 for the extracted reference information may be 2NХF. Here, N may be the number of joint points, 2N may mean the number of joint points in a two-dimensional space, and F may mean the total number of frames of image data.
예를 들어, 프레임 자율화 모듈은 선택된 중심 프레임(420)을 기준으로 복수의 주변 프레임(430)을 결합하여 중심 프레임 세트(440)를 생성할 수 있다. 구체적으로, 생성된 각각의 중심 프레임 세트의 크기는 2NХF'일 수 있다. 여기서, F'는 중심 프레임(420)을 기준으로 결합된 주변 프레임(430)의 개수를 의미할 수 있다. For example, the frame autonomy module may generate the central frame set 440 by combining a plurality of peripheral frames 430 based on the selected central frame 420 . Specifically, the size of each generated central frame set may be 2NХF'. Here, F' may mean the number of peripheral frames 430 coupled with respect to the central frame 420 .
예를 들어, 프레임 자율화 모듈은 생성된 중심 프레임 세트(440)를 순차로 연결(Concatenate)하여 랜드마크 좌표 정보의 프레임 크기를 동일하게 조절할 수 있다. 이에 따라, 크기가 조절된 랜드마크 좌표 정보(450)는 특징 정보를 추출하기 위한 분석 모듈의 입력으로 사용될 수 있다. 구체적으로, 크기가 조절된 랜드마크 좌표 정보(450)의 크기는 2NХF'C 일 수 있다. 여기서, C는 미리 설정된 프레임 개수로 선택된 중심 프레임(420)의 개수를 의미할 수 있다. 따라서, 질병 진단 장치의 특징 정보 추출부(120)는 복수의 영상 데이터가 서로 다른 프레임 개수로 구성되더라도 프레임 자율화 모듈을 통해 동일한 프레임 개수로 조절할 수 있다.For example, the frame autonomy module may sequentially concatenate the generated central frame set 440 to adjust the frame size of landmark coordinate information identically. Accordingly, the scaled landmark coordinate information 450 may be used as an input of an analysis module for extracting feature information. Specifically, the size of the scaled landmark coordinate information 450 may be 2NХF'C. Here, C may mean the number of center frames 420 selected as the preset number of frames. Accordingly, the feature information extraction unit 120 of the disease diagnosis apparatus may adjust the number of frames to the same number through the frame autonomy module even if the plurality of image data is configured with different frame numbers.
도 5는 본 개시의 일 실시예에 따른 질병 진단 장치의 특징 정보를 추출하는 예시를 도시한 도면이다.5 is a diagram illustrating an example of extracting characteristic information of an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
도 5를 참조하면, 본 개시의 일 실시예에 따른 질병 진단 장치의 특징 정보 추출부(120)가 특징 정보를 추출하는 내용을 설명할 수 있다. 일 예로, 기준 정보 획득부(110)는 진단 프로토콜에 따라 사용자의 자세를 계속적으로 촬영한 복수의 영상 데이터 별로 미리 설정된 특정 신체 분위에 관한 기준 정보를 획득할 수 있다. 예를 들어, 기준 정보 획득부(110)는 진단 프로토콜에 따라 테스트를 수행한 사용자의 영상 데이터 1로부터 제 1 신체 부위에 관한 기준 정보와 제 2 신체 부위에 관한 기준 정보를 획득할 수 있다. 또한, 표 1은 영상 데이터에 따른 테스트 내용과 각각의 기준 정보에 관한 일 예를 설명한 것으로 이에 한정되는 것은 아니다.Referring to FIG. 5 , content in which the feature information extraction unit 120 of the apparatus for diagnosing a disease according to an embodiment of the present disclosure extracts feature information may be described. For example, the reference information acquisition unit 110 may acquire preset reference information regarding a specific body position for each of a plurality of image data obtained by continuously photographing a user's posture according to a diagnosis protocol. For example, the reference information acquisition unit 110 may acquire reference information on the first body part and reference information on the second body part from image data 1 of a user who has performed a test according to a diagnosis protocol. In addition, Table 1 describes an example of test contents and respective reference information according to image data, but is not limited thereto.
Figure PCTKR2021019901-appb-T000001
Figure PCTKR2021019901-appb-T000001
일 예로, 특징 정보 추출부(120)는 좌표 추출 모듈을 통해 기준 정보에 대한 랜드마크 좌표 정보를 추출할 수 있다. 예를 들어, 특징 정보 추출부(120)는 영상 데이터 1로부터 획득한 제 1 신체 부위에 관한 기준 정보와 제 2 신체 부위에 관한 기준 정보를 이용하여 각각의 신체 부위에 대한 랜드마크 좌표 정보를 추출할 수 있다. 즉, 특징 정보 추출부(120)는 좌표 추출 모듈을 통해 영상 데이터 1 로부터 미리 설정된 특정 신체 부위의 랜드마크 좌표 정보를 적어도 하나 이상 추출할 수 있다. 따라서, 영상 데이터가 다르면 랜드마크 좌표 정보를 추출하는 특정 신체 부위의 종류와 개수는 변경될 수 있다.As an example, the feature information extraction unit 120 may extract landmark coordinate information with respect to the reference information through the coordinate extraction module. For example, the feature information extraction unit 120 extracts landmark coordinate information for each body part by using the reference information about the first body part and the reference information about the second body part obtained from the image data 1 can do. That is, the feature information extraction unit 120 may extract at least one preset landmark coordinate information of a specific body part from the image data 1 through the coordinate extraction module. Accordingly, if the image data is different, the type and number of specific body parts from which landmark coordinate information is extracted may be changed.
일 예로, 특징 정보 추출부(120)는 추출된 각각의 랜드마크 좌표 정보를 분석 모듈에 적용하여 랜드마크 별 특징 정보를 추출할 수 있다. 예를 들어, 특징 정보 추출부(120)는 제 1 신체 부위 랜드마크 좌표 정보와 제 2 신체 부위 랜드마크 좌표 정보를 분석 모듈에 각각 적용하여 제 1 신체 부위 특징 정보와 제 2 신체 부위 특징 정보를 추출할 수 있다. 또한, 예를 들어, 특징 정보 추출부(120)는 각각의 랜드마크 좌표 정보를 프레임 자율화 모듈을 통해 동일한 크기로 조절하고, 이에 joint-level인 제 1 신경망 모듈을 적용하여 랜드마크에 대한 관절점 정보를 생성할 수 있다. 그리고, 특징 정보 추출부(120)는 랜드마크에 대한 관절점 정보에 frame-level인 제 2 신경망 모듈을 적용하여 시간 축 정보를 결합하고 마지막으로 완전 연결 계층을 통해 원하는 크기의 특징 정보를 추출할 수 있다. 즉, 특징 정보 추출부(120)는 분석 모듈을 통해 각각의 랜드마크 좌표 정보로부터 각각의 랜드마크 별 특징 정보를 추출할 수 있다.For example, the feature information extraction unit 120 may extract feature information for each landmark by applying the extracted respective landmark coordinate information to the analysis module. For example, the feature information extraction unit 120 applies the first body part landmark coordinate information and the second body part landmark coordinate information to the analysis module, respectively, to obtain the first body part feature information and the second body part feature information. can be extracted. Also, for example, the feature information extraction unit 120 adjusts each landmark coordinate information to the same size through the frame autonomy module, and applies the joint-level first neural network module to the joint point for the landmark. information can be generated. Then, the feature information extraction unit 120 applies the frame-level second neural network module to the joint point information for the landmark, combines the time axis information, and finally extracts the feature information of the desired size through the fully connected layer. can That is, the feature information extraction unit 120 may extract feature information for each landmark from each landmark coordinate information through the analysis module.
또한, 일 예로, 질병 진단부(130)는 복수의 영상 데이터로부터 추출된 복수의 랜드마크 별 특징 정보를 연결하여 최종적으로 하나의 통합 특징 정보를 생성할 수 있다. 통합 특징 정보의 생성에 관한 상세한 내용은 도 6 및 도 7을 참조하여 후술한다. Also, as an example, the disease diagnosis unit 130 may connect feature information for each landmark extracted from a plurality of image data to finally generate one piece of integrated feature information. Details on the generation of the integrated feature information will be described later with reference to FIGS. 6 and 7 .
도 6은 본 개시의 일 실시예에 따른 질병 진단 장치에서 통합 특징 정보를 생성하는 예시를 도시한 도면이다.6 is a diagram illustrating an example of generating integrated feature information in an apparatus for diagnosing a disease according to an embodiment of the present disclosure.
도 6를 참조하면, 본 개시의 일 실시예에 따른 질병 진단 장치의 질병 진단부(130)가 통합 특징 정보를 생성하는 내용을 설명할 수 있다. 일 예로, 질병 진단부(130)는 각각의 영상 데이터로부터 추출된 랜드마크 별 특징 정보(610)를 연결(Concatenate)하여 통합 특징 정보(620)를 생성할 수 있다. 예를 들어, 질병 진단부(130)는 각각의 영상 데이터로부터 추출된 랜드마크 별 특징 정보(610)를 일렬로 배치하는 방식으로 연결하여 통합 특징 정보(620)를 생성할 수 있다. 구체적인 예를 들면, 각각의 랜드마크 별 특징 정보(610)가 CХ1 형태의 특징 벡터이고, 랜드마크가 총 N개인 경우, 질병 진단부(130)는 NCХ1 형태의 특징 벡터인 통합 특징 정보(620)를 생성할 수 있다.Referring to FIG. 6 , the generation of the integrated feature information by the disease diagnosis unit 130 of the disease diagnosis apparatus according to an embodiment of the present disclosure may be described. For example, the disease diagnosis unit 130 may generate the integrated characteristic information 620 by concatenating the characteristic information 610 for each landmark extracted from each image data. For example, the disease diagnosis unit 130 may generate the integrated characteristic information 620 by connecting the characteristic information 610 for each landmark extracted from each image data in a manner of arranging in a line. As a specific example, if the feature information 610 for each landmark is a CХ1 type feature vector and there are a total of N landmarks, the disease diagnosis unit 130 integrates the feature information 620 that is a NCХ1 type feature vector. can create
또한, 일 예로, 질병 진단부(130)는 생성된 통합 특징 정보(620)를 완전 연결 계층(630)에 입력하여 질병의 발생 유무, 종류 및 중증도 중 적어도 하나를 진단할 수 있다. 예를 들어, 완전 연결 계층(630)은 복수의 노드를 포함하며, 복수의 노드 각각은 입력에 대해 소정의 연산을 수행할 수 있다. 또한, 완전 연결 계층(630)은 연산에 가중치(weight)를 적용하여 결과를 출력할 수 있다. 구체적으로, 질병 진단부(130)의 출력은 사용자의 자세를 계속적으로 촬영한 복수의 영상 데이터에 포함된 정보가 해당 질병의 발생 확률, 질병 종류 별 발생 확률 또는 중증도 별 발생 확률 중 적어도 하나일 수 있다. Also, as an example, the disease diagnosis unit 130 may input the generated integrated characteristic information 620 into the fully connected layer 630 to diagnose at least one of the presence, absence, type, and severity of the disease. For example, the fully connected layer 630 includes a plurality of nodes, and each of the plurality of nodes may perform a predetermined operation on an input. Also, the fully connected layer 630 may output a result by applying a weight to the operation. Specifically, the output of the disease diagnosis unit 130 may indicate that the information included in the plurality of image data continuously photographing the user's posture may be at least one of the probability of occurrence of the corresponding disease, the probability of occurrence by disease type, or the occurrence probability by severity. have.
도 7은 본 개시의 다른 실시예에 따른 질병 진단 장치에서 통합 특징 정보를 생성하는 예시를 도시한 도면이다.7 is a diagram illustrating an example of generating integrated feature information in an apparatus for diagnosing a disease according to another embodiment of the present disclosure.
도 7을 참조하면, 본 개시의 다른 실시예에 따른 질병 진단 장치의 질병 진단부(130)가 통합 특징 정보를 생성하는 내용을 설명할 수 있다. 일 예로, 질병 진단부(130)는 각각의 영상 데이터로부터 추출된 랜드마크 별 특징 정보(610)를 이용하여 평균값(710)과 최대값(720)을 산출할 수 있다. 그리고, 질병 진단부(130)는 평균값(710)과 최대값(720)을 연결(Concatenate)하여 통합 특징 정보(730)를 생성할 수 있다. 예를 들어, 질병 진단부(130)는 산출된 각각의 평균값(710)과 최대값(720)을 일렬로 배치하는 방식으로 연결하여 통합 특징 정보(730)를 생성할 수 있다. 구체적인 예를 들면, 각각의 랜드마크 별 특징 정보(610)가 CХ1 형태의 특징 벡터이고, 랜드마크가 총 N개인 경우, 질병 진단부(130)는 CХ1 형태의 특징 벡터인 평균값(710)과 최대값(720)을 각각 산출할 수 있다. 따라서, 질병 진단부는 2CХ1 형태의 특징 벡터인 통합 특징 정보(730)를 생성할 수 있다.Referring to FIG. 7 , the generation of the integrated feature information by the disease diagnosis unit 130 of the disease diagnosis apparatus according to another embodiment of the present disclosure may be described. For example, the disease diagnosis unit 130 may calculate an average value 710 and a maximum value 720 by using the characteristic information 610 for each landmark extracted from each image data. In addition, the disease diagnosis unit 130 may generate the integrated feature information 730 by concatenating the average value 710 and the maximum value 720 . For example, the disease diagnosis unit 130 may generate the integrated feature information 730 by connecting the calculated average values 710 and the maximum values 720 in a manner that is arranged in a line. As a specific example, if the characteristic information 610 for each landmark is a CХ1 type feature vector and there are a total of N landmarks, the disease diagnosis unit 130 sets the average value 710 and the maximum value 710 that is a CХ1 type characteristic vector. Each value 720 may be calculated. Accordingly, the disease diagnosis unit may generate the integrated feature information 730 that is a 2CХ1 type feature vector.
또한, 일 예로, 질병 진단부(130)는 생성된 통합 특징 정보(730)를 완전 연결 계층(630)에 입력하여 질병의 발생 유무, 종류 및 중증도 중 적어도 하나를 진단할 수 있다. 완전 연결 계층(630)에 관한 내용은 도 6을 참조하여 전술한 바와 같다. 다만, 완전 연결 계층(630)은 입력되는 특징 벡터의 형태가 달라짐에 따라 완전 연결 계층(630)의 가중치(weight) 사이즈는 다르게 적용될 수 있다. Also, as an example, the disease diagnosis unit 130 may input the generated integrated characteristic information 730 into the fully connected layer 630 to diagnose at least one of the presence, absence, type, and severity of the disease. Details on the fully connected layer 630 are the same as described above with reference to FIG. 6 . However, in the fully connected layer 630 , the weight size of the fully connected layer 630 may be differently applied as the shape of the input feature vector changes.
이하에서는 도 1 내지 도 7을 참조하여 설명한 질병 진단 장치가 수행할 수 있는 질병 진단 방법에 대해서 설명한다.Hereinafter, a method for diagnosing a disease that can be performed by the apparatus for diagnosing a disease described with reference to FIGS. 1 to 7 will be described.
도 8은 본 개시의 일 실시예에 따른 질병 진단 방법의 흐름도이다. 8 is a flowchart of a method for diagnosing a disease according to an embodiment of the present disclosure.
도 8을 참조하면, 본 개시의 질병 진단 방법은 기준 정보 획득 단계를 포함할 수 있다(S810). 일 예로, 질병 진단 장치는 사용자의 자세를 계속적으로 촬영한 복수의 영상 데이터를 수집하고, 수집된 영상 데이터 별로 미리 설정된 특정 신체 부위에 관한 기준 정보를 획득할 수 있다. 예를 들어, 질병 진단 장치는 질병 검사를 위한 프로토콜에 따라 수행하는 사용자의 자세를 계속적으로 촬영한 복수의 영상 데이터를 수집할 수 있다.Referring to FIG. 8 , the method of diagnosing a disease according to the present disclosure may include a step of acquiring reference information ( S810 ). For example, the apparatus for diagnosing a disease may collect a plurality of image data obtained by continuously photographing a user's posture, and may obtain preset reference information regarding a specific body part for each collected image data. For example, the disease diagnosis apparatus may collect a plurality of image data obtained by continuously capturing a posture of a user performed according to a disease test protocol.
또한, 일 예로, 질병 진단 장치는 진단 목적 또는 진단 상황에 따라 사용자의 얼굴, 동공, 몸 및 손 중 적어도 하나를 포함하여 특정 신체 부위를 설정할 수 있다. 그리고, 질병 진단 장치는 수집된 영상 데이터 별로 미리 설정된 특정 신체 부위에 관한 기준 정보를 획득할 수 있다. 즉, 미리 설정되는 특정 신체 부위는 다양하게 변경될 수 있다. Also, as an example, the disease diagnosis apparatus may set a specific body part including at least one of a user's face, pupil, body, and hand according to a diagnosis purpose or a diagnosis situation. In addition, the disease diagnosis apparatus may acquire preset reference information on a specific body part for each collected image data. That is, the preset specific body part may be variously changed.
본 개시의 질병 진단 방법은 특징 정보 추출 단계를 포함할 수 있다(S820). 일 예로, 질병 진단 장치는 각각의 영상 데이터로부터 추출된 기준 정보에 대한 랜드마크 좌표 정보에 분석 모듈을 적용하여 랜드마크 별 특징 정보를 추출할 수 있다. 예를 들어, 질병 진단 장치는 프로토콜에 따른 각각의 영상 데이터로부터 좌표 추출기를 통해 기준 정보에 대한 랜드마크 좌표 정보를 추출할 수 있다. 구체적으로, 좌표 추출기는 얼굴 랜드마크 좌표 추출기, 동공 랜드마크 추출기, 몸 랜드마크 추출기 또는 손 랜드마크 추출기 등일 수 있다. 또한, 랜드마크 좌표 정보는 face joint, pupil joint, TUG(Time Up and Go) joint, MWT (Maintenance of Wakefulness Test) joint, hand joint 등에 대한 좌표 정보일 수 있다.The disease diagnosis method of the present disclosure may include a feature information extraction step (S820). For example, the disease diagnosis apparatus may extract characteristic information for each landmark by applying an analysis module to landmark coordinate information for reference information extracted from each image data. For example, the disease diagnosis apparatus may extract landmark coordinate information for reference information through a coordinate extractor from each image data according to a protocol. Specifically, the coordinate extractor may be a facial landmark coordinate extractor, a pupil landmark extractor, a body landmark extractor, or a hand landmark extractor. In addition, the landmark coordinate information may be coordinate information for a face joint, a pupil joint, a Time Up and Go (TUG) joint, a Maintenance of Wakefulness Test (MWT) joint, a hand joint, and the like.
또한, 일 예로, 질병 진단 장치는 추출된 각각의 랜드마크 좌표 정보를 독립적으로 분석 모듈에 적용하여 랜드마크 별 특징 정보를 추출할 수 있다. 예를 들어, 분석 모듈은 랜드마크 좌표 정보를 기반으로 관절점 정보를 생성하는 제 1 신경망 모듈과 동일 프레임 내 관절점 정보를 기반으로 시간 축 정보를 결합하는 제 2 신경망 모듈을 포함하여 구성될 수 있다. 구체적으로, 제 1 신경망 모듈은 그래프 합성곱 신경망(Graph Convolution Network, GCN)을 기반으로 하고, 제 2 신경망 모듈은 합성곱 신경망(Convolutional Neural Network, CNN)을 기반으로 할 수 있다.Also, as an example, the apparatus for diagnosing the disease may extract characteristic information for each landmark by independently applying the extracted coordinate information of each landmark to the analysis module. For example, the analysis module may include a first neural network module that generates joint point information based on landmark coordinate information and a second neural network module that combines time axis information based on joint point information within the same frame. have. Specifically, the first neural network module may be based on a Graph Convolution Network (GCN), and the second neural network module may be based on a Convolutional Neural Network (CNN).
다른 예를 들어, 분석 모듈은 랜드마크 좌표 정보의 프레임 크기를 동일하게 조절하는 프레임 자율화 모듈을 더 포함할 수 있다. 구체적으로, 프레임 자율화 모듈은 미리 설정된 프레임 개수에 기초하여 중심 프레임을 선택하고, 선택된 중심 프레임을 기준으로 복수의 주변 프레임을 결합하여 중심 프레임 세트를 생성할 수 있다. 그리고, 프레임 자율화 모듈은 생성한 복수의 중심 프레임 세트를 연결(Concatenate)하여 랜드마크 좌표 정보의 프레임 크기를 조절할 수 있다. 이에 따라, 분석 모듈은 추출된 랜드마크 좌표 정보를 프레임 자율화 모듈을 통해 동일한 프레임 크기로 조절하여 입력 데이터로 사용할 수 있다. As another example, the analysis module may further include a frame autonomy module that adjusts the frame size of the landmark coordinate information to be the same. Specifically, the frame autonomy module may select a central frame based on a preset number of frames, and combine a plurality of peripheral frames based on the selected central frame to generate a central frame set. In addition, the frame autonomy module may adjust the frame size of landmark coordinate information by concatenating a plurality of generated central frame sets. Accordingly, the analysis module may adjust the extracted landmark coordinate information to the same frame size through the frame autonomy module and use it as input data.
본 개시의 질병 진단 방법은 질병 진단 단계를 포함할 수 있다(S830). 일 예로, 질병 진단 장치는 랜드마크 별 특징 정보를 연결(Concatenate)하여 통합(Fusion) 특징 정보를 생성하고, 통합 특징 정보에 기초하여 질병을 진단할 수 있다. 예를 들어, 질병 진단 장치는 랜드마크 별 특징 정보를 연결(Concatenate)하여 통합 특징 정보를 생성하고, 완전 연결 계층(Fully-connected layer)에 입력하여 질병의 발생 유무, 종류 및 중증도 중 적어도 하나를 진단할 수 있다. 또한, 질병 진단 장치는 랜드마크 별 특징 정보의 평균값과 랜드마크 별 특징 정보의 최대값을 산출하고, 산출된 평균값과 최대값을 연결(Concatenate)하여 통합(Fusion) 특징 정보를 생성할 수도 있다. The disease diagnosis method of the present disclosure may include a disease diagnosis step (S830). For example, the apparatus for diagnosing a disease may generate fusion characteristic information by concatenating characteristic information for each landmark, and diagnose a disease based on the integrated characteristic information. For example, the disease diagnosis apparatus generates integrated characteristic information by concatenating characteristic information for each landmark, and inputs it into a fully-connected layer to determine at least one of the presence, absence, type, and severity of disease. can be diagnosed Also, the disease diagnosis apparatus may calculate the average value of the characteristic information for each landmark and the maximum value of the characteristic information for each landmark, and concatenate the calculated average value and the maximum value to generate fusion characteristic information.
도 9는 일 실시예에 따른 질병 진단 장치의 블록도이다. 9 is a block diagram of an apparatus for diagnosing a disease according to an exemplary embodiment.
도 9를 참조하면, 일 실시예에 따른 질병 진단 장치(100)는 통신 인터페이스(910) 및 프로세서(920)를 포함한다. 질병 진단 장치(1100)는 메모리(930)를 더 포함할 수 있다. 각 구성 요소, 통신 인터페이스(910), 프로세서(920) 및 메모리(930)는 통신 버스를 통해 서로 연결될 수 있다. 예를 들면, 통신 버스는 구성요소들을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 및/또는 데이터)을 전달하는 회로를 포함할 수 있다.Referring to FIG. 9 , the disease diagnosis apparatus 100 according to an embodiment includes a communication interface 910 and a processor 920 . The disease diagnosis apparatus 1100 may further include a memory 930 . Each component, the communication interface 910 , the processor 920 , and the memory 930 may be connected to each other through a communication bus. For example, a communication bus may include circuitry that connects components to each other and transfers communications (eg, control messages and/or data) between components.
통신 인터페이스(910)는 사용자의 자세를 촬영한 복수의 영상을 획득할 수 있다. 또한, 통신 인터페이스(1110)는 무선 통신 또는 유선 통신을 통해서 외부 장치의 통신을 수행할 수 있다.The communication interface 910 may acquire a plurality of images of the user's posture. Also, the communication interface 1110 may communicate with an external device through wireless communication or wired communication.
프로세서(920)는 도 1 내지 도 8을 통해 전술한 적어도 하나의 방법 또는 적어도 하나의 방법에 대응되는 알고리즘을 수행할 수 있다. 프로세서(920)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), NPU(Neural Processing Unit), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.The processor 920 may perform the at least one method described above with reference to FIGS. 1 to 8 or an algorithm corresponding to the at least one method. The processor 920 may be a hardware-implemented data processing device having a circuit having a physical structure for executing desired operations. For example, desired operations may include code or instructions included in a program. For example, a data processing device implemented as hardware includes a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , a Neural Processing Unit (NPU), an Application-Specific Integrated Circuit (ASIC), and a Field Programmable Gate Array (FPGA).
또한, 프로세서(920)는 프로그램을 실행하고, 질병 진단 장치(100)를 제어할 수 있다. 프로세서(920)에 의하여 실행되는 프로그램 코드는 메모리(930)에 저장될 수 있다.Also, the processor 920 may execute a program and control the disease diagnosis apparatus 100 . The program code executed by the processor 920 may be stored in the memory 930 .
본 개시의 실시예에 따른 신경망을 포함하는 인공 지능 모델에 관한 정보는 프로세서(920) 내부 메모리에 저장되거나, 외부 메모리, 즉 메모리(930)에 저장될 수 있다. 예를 들어, 메모리(930)는 통신 인터페이스(910)를 통해 획득한 사용자의 자세를 촬영한 복수의 영상을 저장할 수 있다. 메모리(930)는 신경망을 포함하는 인공 지능 모델을 저장할 수 있다. 또한, 메모리(930)는 프로세서(920)의 처리 과정에서 생성되는 다양한 정보 및 프로세서(920)에 의해 추출된 출력 정보들을 저장할 수 있다. 출력 정보는 신경망 연산 결과 또는 신경망 테스트 결과일 수 있다. 메모리(930)는 신경망 학습 결과를 저장할 수 있다. 신경망 학습 결과는, 질병 진단 장치(100)에서 획득한 것일 수도 있고, 외부 장치로부터 획득한 것일 수도 있다. 신경망 학습 결과는, 가중치 및 바이어스 값을 포함할 수 있다. 이밖에도, 메모리(930)는 각종 데이터와 프로그램 등을 저장할 수 있다. 메모리(930)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(930)는 하드 디스크 등과 같은 대용량 저장 매체를 구비하여 각종데이터를 저장할 수 있다.Information on the artificial intelligence model including the neural network according to the embodiment of the present disclosure may be stored in the internal memory of the processor 920 or stored in an external memory, that is, the memory 930 . For example, the memory 930 may store a plurality of images obtained by photographing the user's posture acquired through the communication interface 910 . The memory 930 may store an artificial intelligence model including a neural network. Also, the memory 930 may store various types of information generated in a process of the processor 920 and output information extracted by the processor 920 . The output information may be a neural network operation result or a neural network test result. The memory 930 may store a neural network learning result. The neural network learning result may be obtained from the disease diagnosis apparatus 100 or from an external apparatus. The neural network learning result may include a weight and a bias value. In addition, the memory 930 may store various data and programs. The memory 930 may include a volatile memory or a non-volatile memory. The memory 930 may include a mass storage medium such as a hard disk to store various data.
이상에서, 본 개시의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 개시가 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 개시의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체 (magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In the above, even though it has been described that all components constituting the embodiment of the present disclosure are combined or operated as one, the present disclosure is not necessarily limited to this embodiment. That is, within the scope of the present disclosure, all the components may operate by selectively combining one or more. In addition, although all the components may be implemented as one independent hardware, some or all of the components are selectively combined to perform some or all of the functions of one or a plurality of pieces of hardware. may be implemented as a computer program having a The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 개시에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, terms such as "comprises", "comprises" or "have" described above mean that the corresponding component may be embedded, unless otherwise stated, excluding other components. Rather, it should be construed as being able to include other components further. All terms, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this disclosure belongs, unless otherwise defined. Commonly used terms, such as those defined in the dictionary, should be interpreted as being consistent with the meaning of the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present disclosure.
이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 개시에 개시된 실시 예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 개시의 기술 사상의 범위가 한정되는 것은 아니다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present disclosure, and various modifications and variations will be possible without departing from the essential characteristics of the present disclosure by those of ordinary skill in the art to which the present disclosure belongs. Accordingly, the embodiments disclosed in the present disclosure are for explanation rather than limiting the technical spirit of the present disclosure, and the scope of the technical spirit of the present disclosure is not limited by these embodiments. The protection scope of the present disclosure should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present disclosure.
CROSS-REFERENCE TO RELATED APPLICATIONCROSS-REFERENCE TO RELATED APPLICATION
본 특허출원은 2021년 01월 21일 한국에 출원한 특허출원번호 제 10-2021-0008800 호 및 2021년 10월 25일 한국에 출원한 특허출원번호 제 10-2021-0142543호에 대해 미국 특허법 119(a)조 (35 U.S.C § 119(a))에 따라 우선권을 주장하며, 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다. 아울러, 본 특허출원은 미국 이외에 국가에 대해서도 위와 동일한 이유로 우선권을 주장하면 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다.This patent application is based on U.S. Patent Law 119 for Patent Application No. 10-2021-0008800 filed in Korea on January 21, 2021 and Patent Application No. 10-2021-0142543 filed in Korea on October 25, 2021 Priority is claimed under section (a) (35 U.S.C § 119(a)), the entire contents of which are incorporated herein by reference. In addition, if this patent application claims priority for countries other than the United States for the same reason as above, all contents thereof are incorporated into this patent application by reference.

Claims (15)

  1. 사용자의 자세를 계속적으로 촬영한 복수의 영상 데이터를 수집하고, 수집된 영상 데이터 별로 미리 설정된 특정 신체 부위에 관한 기준 정보를 획득하는 기준 정보 획득부;a reference information acquisition unit that collects a plurality of image data obtained by continuously photographing a user's posture, and acquires preset reference information on a specific body part for each collected image data;
    각각의 영상 데이터로부터 추출된 상기 기준 정보에 대한 랜드마크 좌표 정보에 분석 모듈을 적용하여 랜드마크 별 특징 정보를 추출하는 특징 정보 추출부; 및a feature information extracting unit for extracting feature information for each landmark by applying an analysis module to the landmark coordinate information for the reference information extracted from each image data; and
    상기 랜드마크 별 특징 정보를 연결(Concatenate)하여 통합(Fusion) 특징 정보를 생성하고, 상기 통합 특징 정보에 기초하여 질병을 진단하는 질병 진단부를 포함하는 것을 특징으로 하는 질병 진단 장치.and a disease diagnosis unit for generating fusion characteristic information by concatenating the characteristic information for each landmark, and diagnosing a disease based on the integrated characteristic information.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 기준 정보 획득부는,The reference information obtaining unit,
    진단 목적 또는 진단 상황에 따라 상기 사용자의 얼굴, 동공, 몸 및 손 중 적어도 하나를 포함하여 상기 특정 신체 부위를 설정하는 것을 특징으로 하는 질병 진단 장치.The apparatus for diagnosing a disease, characterized in that the specific body part is set including at least one of the user's face, pupil, body, and hand according to a diagnosis purpose or a diagnosis situation.
  3. 제 1 항에 있어서,The method of claim 1,
    상기 분석 모듈은,The analysis module,
    상기 랜드마크 좌표 정보를 기반으로 관절점 정보를 생성하는 제 1 신경망 모듈과 동일 프레임 내 상기 관절점 정보를 기반으로 시간 축 정보를 결합하는 제 2 신경망 모듈을 포함하여 구성되는 것을 특징으로 하는 질병 진단 장치.Disease diagnosis, characterized in that it comprises a first neural network module for generating joint point information based on the landmark coordinate information and a second neural network module for combining time axis information based on the joint point information in the same frame Device.
  4. 제 3 항에 있어서, 4. The method of claim 3,
    상기 제 1 신경망 모듈은,The first neural network module,
    그래프 합성곱 신경망(Graph Convolution Network, GCN)을 기반으로 하고,Based on Graph Convolution Network (GCN),
    상기 제 2 신경망 모듈은,The second neural network module,
    합성곱 신경망(Convolutional Neural Network, CNN)을 기반으로 하는 것을 특징으로 하는 질병 진단 장치.A disease diagnosis device, characterized in that it is based on a convolutional neural network (CNN).
  5. 제 1 항에 있어서, The method of claim 1,
    상기 분석 모듈은,The analysis module,
    상기 랜드마크 좌표 정보의 프레임 크기를 동일하게 조절하는 프레임 자율화 모듈을 더 포함하는 것을 특징으로 하는 질병 진단 장치.The apparatus for diagnosing a disease further comprising a frame autonomy module that equalizes the frame size of the landmark coordinate information.
  6. 제 5 항에 있어서,6. The method of claim 5,
    상기 프레임 자율화 모듈은,The frame autonomy module,
    미리 설정된 프레임 개수에 기초하여 중심 프레임을 선택하고, 상기 중심 프레임을 기준으로 복수의 주변 프레임을 결합하여 중심 프레임 세트를 생성하고, 상기 중심 프레임 세트를 연결(Concatenate)하여 상기 랜드마크 좌표 정보의 프레임 크기를 조절하는 것을 특징으로 하는 질병 진단 장치.Select a central frame based on a preset number of frames, combine a plurality of peripheral frames based on the central frame to create a central frame set, and concatenate the central frame set to frame the landmark coordinate information A disease diagnosis device, characterized in that the size is adjusted.
  7. 제 1 항에 있어서,The method of claim 1,
    상기 질병 진단부는,The disease diagnosis unit,
    상기 통합 특징 정보를 완전 연결 계층(Fully-connected layer)에 입력하여 상기 질병의 발생 유무, 종류 및 중증도 중 적어도 하나를 진단하는 것을 특징으로 하는 질병 진단 장치.The apparatus for diagnosing a disease, characterized in that by inputting the integrated characteristic information into a fully-connected layer, at least one of the occurrence, type, and severity of the disease is diagnosed.
  8. 제 7 항에 있어서,8. The method of claim 7,
    상기 질병 진단부는,The disease diagnosis unit,
    상기 랜드마크 별 특징 정보의 평균값과 상기 랜드마크 별 특징 정보의 최대값을 산출하고, 상기 평균값과 상기 최대값을 연결(Concatenate)하여 상기 통합(Fusion) 특징 정보를 생성하는 것을 특징으로 하는 질병 진단 장치.Calculating the average value of the characteristic information for each landmark and the maximum value of the characteristic information for each landmark, and concatenating the average value and the maximum value to generate the Fusion characteristic information Device.
  9. 사용자의 자세를 계속적으로 촬영한 복수의 영상 데이터를 수집하고, 수집된 영상 데이터 별로 미리 설정된 특정 신체 부위에 관한 기준 정보를 획득하는 기준 정보 획득 단계;a reference information acquisition step of collecting a plurality of image data obtained by continuously photographing a user's posture, and acquiring reference information on a specific body part preset for each of the collected image data;
    각각의 영상 데이터로부터 추출된 상기 기준 정보에 대한 랜드마크 좌표 정보에 분석 모듈을 적용하여 랜드마크 별 특징 정보를 추출하는 특징 정보 추출 단계; 및a feature information extraction step of extracting feature information for each landmark by applying an analysis module to the landmark coordinate information for the reference information extracted from each image data; and
    상기 랜드마크 별 특징 정보를 연결(Concatenate)하여 통합(Fusion) 특징 정보를 생성하고, 상기 통합 특징 정보에 기초하여 질병을 진단하는 질병 진단 단계를 포함하는 것을 특징으로 하는 질병 진단 방법.and a disease diagnosis step of generating fusion characteristic information by concatenating the characteristic information for each landmark, and diagnosing a disease based on the integrated characteristic information.
  10. 제 9 항에 있어서,10. The method of claim 9,
    상기 기준 정보 획득 단계는,The step of obtaining the reference information is
    진단 목적 또는 진단 상황에 따라 상기 사용자의 얼굴, 동공, 몸 및 손 중 적어도 하나를 포함하여 상기 특정 신체 부위를 설정하는 것을 특징으로 하는 질병 진단 방법.The method for diagnosing a disease, characterized in that the specific body part is set including at least one of the user's face, pupil, body, and hand according to a diagnosis purpose or a diagnosis situation.
  11. 제 9 항에 있어서,10. The method of claim 9,
    상기 분석 모듈은,The analysis module,
    상기 랜드마크 좌표 정보를 기반으로 관절점 정보를 생성하는 제 1 신경망 모듈과 동일 프레임 내 상기 관절점 정보를 기반으로 시간 축 정보를 결합하는 제 2 신경망 모듈을 포함하여 구성되는 것을 특징으로 하는 질병 진단 방법.Disease diagnosis, characterized in that it comprises a first neural network module for generating joint point information based on the landmark coordinate information and a second neural network module for combining time axis information based on the joint point information in the same frame Way.
  12. 제 9 항에 있어서,10. The method of claim 9,
    상기 분석 모듈은,The analysis module,
    상기 랜드마크 좌표 정보의 프레임 크기를 동일하게 조절하는 프레임 자율화 모듈을 더 포함하는 것을 특징으로 하는 질병 진단 방법.The disease diagnosis method according to claim 1, further comprising a frame autonomy module configured to equalize the frame size of the landmark coordinate information.
  13. 제 12 항에 있어서,13. The method of claim 12,
    상기 프레임 자율화 모듈은,The frame autonomy module,
    미리 설정된 프레임 개수에 기초하여 중심 프레임을 선택하고, 상기 중심 프레임을 기준으로 복수의 주변 프레임을 결합하여 중심 프레임 세트를 생성하고, 상기 중심 프레임 세트를 연결(Concatenate)하여 상기 랜드마크 좌표 정보의 프레임 크기를 조절하는 것을 특징으로 하는 질병 진단 방법.Select a central frame based on a preset number of frames, combine a plurality of peripheral frames based on the central frame to create a central frame set, and concatenate the central frame set to frame the landmark coordinate information A method for diagnosing a disease, characterized in that the size is adjusted.
  14. 제 9 항에 있어서,10. The method of claim 9,
    상기 질병 진단 단계는,The disease diagnosis step is
    상기 통합 특징 정보를 완전 연결 계층(Fully-connected layer)에 입력하여 상기 질병의 발생 유무, 종류 및 중증도 중 적어도 하나를 진단하는 것을 특징으로 하는 질병 진단 방법.The method for diagnosing a disease, characterized in that inputting the integrated characteristic information into a fully-connected layer to diagnose at least one of the presence or absence, type, and severity of the disease.
  15. 제 14 항에 있어서,15. The method of claim 14,
    상기 질병 진단 단계는,The disease diagnosis step is
    상기 랜드마크 별 특징 정보의 평균값과 상기 랜드마크 별 특징 정보의 최대값을 산출하고, 상기 평균값과 상기 최대값을 연결(Concatenate)하여 상기 통합(Fusion) 특징 정보를 생성하는 것을 특징으로 하는 질병 진단 방법.Calculating the average value of the characteristic information for each landmark and the maximum value of the characteristic information for each landmark, and concatenating the average value and the maximum value to generate the Fusion characteristic information Way.
PCT/KR2021/019901 2021-01-21 2021-12-27 Disease diagnosis device and method WO2022158737A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20210008800 2021-01-21
KR10-2021-0008800 2021-01-21
KR1020210142543A KR20220106026A (en) 2021-01-21 2021-10-25 Apparatus and method for diagnosing disease
KR10-2021-0142543 2021-10-25

Publications (1)

Publication Number Publication Date
WO2022158737A1 true WO2022158737A1 (en) 2022-07-28

Family

ID=82549759

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/019901 WO2022158737A1 (en) 2021-01-21 2021-12-27 Disease diagnosis device and method

Country Status (1)

Country Link
WO (1) WO2022158737A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170132109A (en) * 2017-11-13 2017-12-01 주상호 Method and apparatus for identification of turtle neck using sitting posture recognition per slope of machine learning-based neck
KR20190000195A (en) * 2017-06-22 2019-01-02 연세대학교 산학협력단 Management System for Treatment of Neurological Disorder and Method thereof
KR102058884B1 (en) * 2019-04-11 2019-12-24 주식회사 홍복 Method of analyzing iris image for diagnosing dementia in artificial intelligence
KR20200005986A (en) * 2018-07-09 2020-01-17 주식회사 두브레인 System and method for diagnosing cognitive impairment using face recognization
KR20200120365A (en) * 2019-04-12 2020-10-21 울산대학교 산학협력단 Machine learning method and system for automatically grading severity from separated actions of a parkinsonian patient video

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190000195A (en) * 2017-06-22 2019-01-02 연세대학교 산학협력단 Management System for Treatment of Neurological Disorder and Method thereof
KR20170132109A (en) * 2017-11-13 2017-12-01 주상호 Method and apparatus for identification of turtle neck using sitting posture recognition per slope of machine learning-based neck
KR20200005986A (en) * 2018-07-09 2020-01-17 주식회사 두브레인 System and method for diagnosing cognitive impairment using face recognization
KR102058884B1 (en) * 2019-04-11 2019-12-24 주식회사 홍복 Method of analyzing iris image for diagnosing dementia in artificial intelligence
KR20200120365A (en) * 2019-04-12 2020-10-21 울산대학교 산학협력단 Machine learning method and system for automatically grading severity from separated actions of a parkinsonian patient video

Similar Documents

Publication Publication Date Title
WO2020207377A1 (en) Method, device, and system for image recognition model training and image recognition
WO2019088462A1 (en) System and method for generating blood pressure estimation model, and blood pressure estimation system and method
CN111728609B (en) Electroencephalogram signal classification method, classification model training method, device and medium
WO2018228218A1 (en) Identification method, computing device, and storage medium
WO2019054638A1 (en) Image analysis method and apparatus and computer program
KR20220106026A (en) Apparatus and method for diagnosing disease
Madushanka et al. Framework for Sinhala Sign Language recognition and translation using a wearable armband
WO2022131642A1 (en) Apparatus and method for determining disease severity on basis of medical images
CN108922617B (en) Autism auxiliary diagnosis method based on neural network
WO2019189972A1 (en) Method for analyzing iris image by artificial intelligence so as to diagnose dementia
WO2021201582A1 (en) Method and device for analyzing causes of skin lesion
Punsara et al. IoT Based Sign Language Recognition System
Carlini et al. A convolutional neural network-based mobile application to bedside neonatal pain assessment
WO2014104463A1 (en) Natural interaction-based health and rehabilitation device
WO2022158737A1 (en) Disease diagnosis device and method
WO2024005542A1 (en) Method and device for predicting disease through wrinkle detection
Pham et al. Lad: A hybrid deep learning system for benign paroxysmal positional vertigo disorders diagnostic
WO2023182702A1 (en) Artificial intelligence diagnosis data processing device and method for digital pathology images
Migliorelli et al. A store-and-forward cloud-based telemonitoring system for automatic assessing dysarthria evolution in neurological diseases from video-recording analysis
CN117333932A (en) Method, equipment and medium for identifying sarcopenia based on machine vision
Elabbas et al. Classification of Otitis Media Infections using Image Processing and Convolutional Neural Network
WO2023234757A1 (en) Method and system for processing image for nail analysis, and non-transitory computer-readable recording medium
Moreau et al. A motion recognition algorithm using polytopic modeling
CN111274953A (en) Method and system for judging pain according to expressions
KR20210080108A (en) Method of determining stress index using iris image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21921494

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21921494

Country of ref document: EP

Kind code of ref document: A1